IT Architectural Meetup @ Buenos Aires

El pasado jueves tuve la suerte de participar de la primera reunión del grupo “Arquitectura IT ¿Cuales son las responsabilidades?”. Fue una gran experiencia y conocí muchas personas nuevas muy agradables.

Este grupo tiene por objetivo compartir experiencias de arquitectura desde muchos puntos de vista. Participaron tanto arquitectos de empresas de verticales bien definidas como telecomunicaciones, banca, y salud y también de empresas de servicios de IT. Esto promovió un ambiente ideal para el intercambio de ideas y perspectivas.

La reunión se llevó a cabo en las oficinas de FluxIT en Puerto Madero, instalaciones muy cómodas y modernas. Que nos permitió llevar adelante debates abiertos así como actividades en grupos reducidos.

Este primer encuentro giró en torno a los bloques de construcción de una arquitectura, Activos, Lineamientos y Servicios. La dinámica fue separarse en grupos uno por cada uno de estos elementos y luego en charla abierta exponer las ideas condensadas. Muy interesante!!!.

En particular participé del grupo de Activos, allí empezamos a esbozar ideas de que era un activo, y sobre todo si ese activo era de arquitectura.

¿Quién es dueño de un activo?

Quién dirige su ciclo de vida, quién lo opera y mantiene, quién lo implementa.

Entre los activos sin duda encontramos todos los documentos generados:

  • Lineamientos
  • Procesos
  • Assessment
  • Catálogos
  • Blue prints

pero también llegamos a la conclusión que son las piezas de software que responden a los requerimientos no funcionales de la arquitectura.

activos

Creo que apoyamos esta última idea más que nada porque encontramos una muy pintoresca fórmula matemática que la representa.

Respecto a este tema tuvimos varias discusiones, ¿debe arquitectura implementar estos activos?, pues depende, depende del grado de madurez del área de arquitectura, de la empresa e incluso de la fortaleza y respaldo con que cuente el área. Si el área es nueva quizás es algo bueno que para lograr presencia se adueñe de estos activos y hasta que se genere un gobierno maduro se apropie de la operación para lograr presencia en los procesos de desarrollo, integración e implementación. A medida que madura iremos logrando mantener esa presencia separandonos de la operatoria. Sin duda es una estrategia y cada cultura empresarial será más o menos propicia a este modelo.

“Todos queremos una arquitectura con los pies en el barro.”

Esta idea fue el eje de las discusión. Todos los que integramos el grupo éramos amantes del código y ninguno reniega de ese primer amor. Fuimos muy críticos de una arquitectura de papel e idílica, sin una fuerte dosis de realidad. Esto fue un factor de peso en las conclusiones del grupo de trabajo.

Los otros grupos tuvieron presentaciones muy buenas, sin poder precisar los ejes de sus discusiones paso a contar algunas de las ideas que compartieron:

lineamientos

Dar lineamientos sin duda es una de las grandes responsabilidades de un equipo de arquitectura. Pero aquí hicimos mucho hincapié en como dábamos esos lineamientos y que llegada lográbamos, así surgieron dos ideas muy importantes:

  • El arquitecto es un agente de venta que debe lograr un convencimiento de que aplicar estos lineamientos es conveniente. Debemos tratar de evitar la imposición.
  • Siempre debemos considerar contextos y circunstancias donde sea posible considerar excepciones a estos lineamientos.

servicios

Cuando giramos hacia los servicios no hicimos más que confirmar, resaltar y poner en negrita el rol de venta de un arquitecto y coincidimos que la comunicación es el eje fundamental del servicio que presta arquitectura. En el día a día muchos son los entregables que genera, ninguno de ellos tiene validez si luego no se capitaliza en los desarrollos y/o implementaciones de IT tanto en la misma empresa (Organización como vertical de negocio), como en una empresa a la cual le brindamos servicios.

Algunas conclusiones

Los servicios que brinda arquitectura produce activos que deben cumplir con los lineamientos que al mismo tiempo son activos que se utilizan para brindar servicios. Independientemente de este divertido juego de palabras esta sesión de filosofía tecnológica dejó algunas ideas interesantes:

  • Creemos firmemente que arquitectura debe gobernar los componentes responden a necesidades de la arquitectura misma.
  • Estos componentes son activos de arquitectura.
  • Los lineamientos deben promoverse no imponerse.
  • Siempre debemos dejar un espacio a las excepciones.
  • Todos los servicios de arquitectura se basan en la comunicación.
  • Todo servicio produce un nuevo activo.
Un interrogante que  quedó pendiente es ¿qué significa ser el dueño de un activo?. A partir de allí surge la premisa “arquitectura en la realidad y no el arquitectos filósofos”.
Lo más importante

Lo cierto es que más allá de la ciencia pase una tarde súper agradable, conocí gente de la cuál aprender y con la cual compartir. Me sentí valorado y en un ambiente de pura honestidad. Este grupo tiene futuro.

Siempre hay cosas para mejorar. De mi parte me gustaría que el grupo se volviera más variado en cuanto a las tecnologías de origen. Estaría bueno incorporar la visión de un arquitecto del mundo SAP o gente del área de infraestructura para nutrir con conceptos de arquitectura de hardware, etc.

El ambiente permitió el humor y nos permitimos jugar y divertirnos, y sobre todo rescato:

formula

De más está aclarar que todos los derechos de esta fórmula están reservados al grupo de discusión de activos del día del evento. 😛

 

 

 

Advertisements

CQRS perspective over Infinispan and A-MQ in English

Every time we take a new step to the application integration we find stoppers, but there are many technologies that help us support a vision.

When we are considering an integration strategy there are two main paradigms to support it, SOA (Service oriented architecture) and EDA (Event Driven Architecture). Both paradigms represent a new situation that the areas of Development and Operations area must face. Sharing data is no longer a concurrence problem over the data base, neither it is an over night replication; now every process must be considered as a potencial user that needs data managed by other application.

The problem

The definition of service owners reveals a problem:

Administration of the integration Impact .

 

Does a transactional system have the responsibility over the system´s needs?

Is the consumer responsible for the use of the services he does?

Can it be managed by the governance?

An alternative

Although the governance sets rules to keep a healthy coexistence, there is an alternative that allows us to separate those responsibilities. This could be done by applying a pattern called CQRS (command query responsibility segregation). I heard about this concept in a Greg Young´s article “CQRS, Task Based UIs, Event Sourcing agh!”

Now, it could be simple to ask developers to design, build and support a second data structure… (you could try, although I´m not so sure they will do it) but what´s up with legacy applications or applications not developed by us? Modifying them could be very costly or even impossible but we can take advantage of integration interfaces or extension points which let us use…. events!!!

How can we apply this pattern?

We can extend the pattern and delegate the responsibility on another application. This application should be focused on the roll of a service provider and its design should prioritize scalability.

How can we have scalability in the data layer? Betting on innovation using state of the art technologies like In-memory databases for whom scalability is the fortress. In my experience, I used Infinispan. It has a small learning curve and it is easy to scale on it. The latest versions are very robust and finally, bugs on the transaction manager and locks problems in the synchronization between instances have been fixed.

This allows us to have a database with full horizontal scalability with a data design oriented for service provision.

This database receives the information thought events (event sourcing pattern), these design advantages are:

  • Decoupling
  • Data federation from several sources

the disadvantages are:

  • Temporal inconsistence from the source. We need to manage the latency between the original transaction and the time needed to process the event.

Infinispan

Infispan is an in-memory database under the key/value scheme. Its power resides in the access speed to the data, not only because of the in-memory feature, but also for the direct access by keyword. Access through keyword represents a clear advantage if the keyword search criteria for the services we expose match those ones used when storing the data.
Infinispan can be used both as an API or as a server.
In this type of architecture, we see ISPN as a concurrence point of many applications where one writes and the rest read, for there are a series of services exposing the information.
As API, we experience:
  • Less network usage.
  • More flexibility for the processing of combined data.
  • The processing capacity and storing scalate together.
  • There is no need to overload the ESB for data processing or generate an extra layer.
As a server, we observe:
  • Integration via hotrod.
  • Flexibility in the infrastructure scalability.
  • Problems, restarting or deployment of new versions of the service layers are events completely independent from the persistence layer in Infinispan.

Integration of Application Legacy

    • If we are dealing with a commercial application, we need to analyze its integration points. In case of not having any, we still have the possibility (although not pleasant) of implementing a mechanism of pooling the database (trigger, pooling daemon, etc) to retrieve any changes.
        • How can we guarantee the notification of the totality of the changes?
          1. We can make the persistence of the event part of the transaction.
          2. We can define some mechanisms for manual/automatic retrieval for the persistence of the event.

 

From the moment we have the data loading mechanism, the memory cluster configuration is completely independent:

  • It can be replicated or distributed, depending on the amount of data to store, the robustness we want to confer to it and the data reloading time.
  • The cache store guarantees the option of recovery from a node/complete cluster crash or error. It is often inefficient or even impossible to do this from the origin    

Event bus

In spite of looking for alternatives, I always come to the same conclusion, the best way of implementing the Event Bus is by way of a JMS platform. The Bus must act as a buffer of events allowing a certain level of elasticity for the consumers and achieving both that the event persistence has a minimum impact on the performance and resource cost for the producer.

In order to guarantee the arrival of the events into the Bus, we have two strategies:

  1. The publisher application incorporates the publication as part of the transaction, meaning that
    • If the Event Bus is not available, the transaction can’t take place.
    • The transaction takes longer.
  2. The publisher application has a mechanism of persistence and retrieval, requiring of:
    • Bigger infrastructure
    • More responsibilities for the application.

Whichever strategy we choose, the objective is to guarantee a higher platform availability and scalability. This will allow to support an increase in the traffic through the platform and its availability time.

JMS strategy:

Public-Subscriber scheme: It allows scalability in the message traffic and permits incorporation of consumers without restarting or configuring the infrastructure.

Durable Subscribers: this feature guarentees the preservation of the messages until the consumer retrieves them.

Persistent Messages: this feature preserves the messages even in the event of platform restart.

The strategy consists in putting together a pub-sub scheme where a publisher sends a message on a specific topic and n subscribers retrieve it. This allows scalability with the subscribers at the time of registry when they subscribe to the topic with the same client ID. Being persistent allows us to guarantee the arrival of the message.

Conclusion

The Application integration through services and/or events generates impact problems among applications. Responsibility segregation is a good strategy at the time of facing the trouble of administrating the integration impact. In-memory databases and JMS are technologies that provide the adequate functionalities for the implementation of a CQRS architecture, allow to decouple consumers from producers and have structures designed for query.

My personal experience with Infinispan for information retrieval services and JBoss A-MQ for messaging administration has been more than satisfactory, allowing me to have a 7×24 infraestructure with message delivery guaranty and to provide high traffic services, reducing response times by 10-100 times.

Escribiendo reglas de negocio con motores de reglas

Hace ya algunos años que el paradigma de motores de reglas está aceptado como algo más allá del concepto de inteligencia artificial. Hoy por hoy el mercado entiende a los motores de reglas como una forma de aislar la lógica negocio por fuera del desarrollo de código.

¿Que virtudes guarda el desarrollar las reglas de negocio en un motor de reglas?

En primera instancia los motores de reglas nos permiten pasar de un modelo imperativo de desarrollo a un modelo declarativo, este modelo es más simple en la codificación porque describimos que hacer no como…. en teoría.

¿Por qué los programadores tienen la tendencia a usar mecanismos provistos por el software para ordenar la ejecución de las reglas?, priorizaciones, agrupaciones, banderas (todos elementos para el control de flujo de las reglas). Simplemente porque estamos acostumbrados a programar dando instrucciones a las máquinas de CÓMO actuar.

Independientemente del modo de programación nos encontramos con que los motores de reglas nos ilusionan con que vamos a poder poner al experto delante de una aplicación administradora de reglas y podremos adaptar el negocio sin necesidad de programación. Aquí surgen dos inconvenientes:

1 .- La interfaz entre el sistema y las reglas no se ajusta a los cambios que necesitamos

En la mayoría de los cambios de reglas se requiere nuevos datos o nuevas acciones, si estos no están predefinidos en la invocación al motor de reglas difícilmente podamos hacer inferencia sobre ellos.

2.- La interfaz de usuario para escribir las reglas requiere de conocimientos de programación.

Las tecnologías disponibles hoy en día facilitan pero no resuelven las problemáticas de requerir conocimiento técnico para la escritura de reglas. Se están realizando muchas investigaciones para la interpretación del lenguaje natural, hay investigaciones muy interesantes respecto a la interpretación en dominios específicos, como por ejemplo “Rule extraction in gene–disease relationship discovery” by Wen-Juan Hou and Hsiao-Yuan Chen from Department of Computer Science and Information Engineering, National Taiwan Normal University, Taipei, Taiwan

Ante estos inconvenientes ¿por qué utilizaríamos un motor de reglas?

Esta es mi versión de la respuesta basado en mi experiencia.

Respecto a la dudosa proposición “las reglas las escribe el experto” mi postura es que debemos buscar patrones de uso que nos permitan agrupar las reglas de modo tal que pueda segmentar conjuntos de reglas simples modificables por el experto y otro conjunto de reglas complejas que son modificadas por el desarrollador, un patrón que suelo aplicar y que me ha sido útil en muchos escenarios es el de tener un conjunto de reglas que generan el contexto y un conjunto reducido de reglas que ejecutan las consecuencias. (Separate context inference from validation pattern)

Ejemplo de separación de inferencia y validación

Separate context inference from validation pattern example

Este enfoque nos permite hacer uso de diferentes técnicas que limitarían a un programador pero que facilitan mucho la escritura de reglas (tablas de decisión, lenguajes específicos de dominio, interfaces gráficas de escritura de reglas, traductores automáticos).

Si prestamos atención a la problemática de modificación del código cuándo cambio las reglas el enfoque que más resultado me ha dado es “inserta todo lo que puedas al contexto”, a partir de eso y de la mano de lo hablado en el párrafo anterior es una buena estrategia que exista un conjunto de reglas que inicialmente armen el contexto. La variable a tener en cuenta aquí es: MEMORIA, cuántos elementos podemos mantener con los recursos de hardware disponibles.

Por otro lado el hecho de tener separadas las reglas nos facilitan el mostrarlas y el relacionarlas con la definición formal que tenga la compañía. Mostrarlas desde el punto de vista que es mucho más legible una regla que un segmento de código, por lo que aunque necesitemos un programador al lado un experto puede leer las reglas.

Respecto a la trazabilidad desde la documentación a la regla es más simple enumerar las reglas relacionadas a un documento funcional, proceso, etc que indicar las líneas de código.

 

Conclusión

  • Debemos establecer lineamientos de uso que impidan desarrollar reglas en forma imperativa, debe evitarse a toda costa el uso de priorizaciones (toda intención de uso debe verse como un posible error o una excepción).
  • Podemos tener real acercamiento del experto a las reglas de negocio, en el peor de los casos de la mano de un desarrollador que le dé soporte.
  • Las reglas están aisladas y por ende más fácil de gobernar.
  • Puedo tener traza de la definición a la implementación.

Un tema importante es que estamos dejando de lado la principal fortaleza de los motores de reglas que es su uso como motor de inferencia. Podemos decir en consecuencia que bajo criterios de gobernabilidad, uso y potencialidad el escribir las reglas de negocio de la compañía utilizando motores de reglas no debería generar dudas.

CQRS perspective over Infinispan and A-MQ

Cuándo avanzamos hacia la integración de sistemas son muchas las barreras con las cuales nos encontramos y son muchas las tecnologías a las cuales podemos acudir para dar sustento a la estrategia. Los paradigmas ideales sobre el cuál se basa una estrategia de integración son SOA (Service oriented architecture) y EDA (Event Driven Architecture). Ambos paradigmas presentan una situación nueva a la cuál administradores y desarrolladores deben enfrentarse. Compartir datos ya no es concurrir en una base de datos, replicaciones nocturnas o procesar ETLs. Ahora cuando desarrollo mi aplicación debo pensar también que mi universo de usuarios se expande a todos los procesos de la compañía que necesitan de la información administrada por mí.

El problema

El definir un responsable de la información presenta un problema:

La administración del impacto de la integración.

  ¿Es responsabilidad de un transaccional servir de sustento a otro para brindarle servicio? ¿Es la aplicación consumidora del servicio responsable del uso que hace? ¿Puede el gobierno controlar y limitar eso?

Una alternativa

Independientemente de que el gobierno permita establecer reglas de convivencia existe la posibilidad de deslindar esas responsabilidades.  Casualmente a través de un patrón arquitectónico que se basa en la segregación de responsabilidades CQRS. Fue a través de un artículo de Greg Young que me encontré con este concepto. Ahora, sería simple pedirle a las aplicaciones que diseñen, armen y mantengan una segunda estructura de datos (no tanto que lo hagan), y ¿qué pasa con las aplicaciones no desarrolladas por nosotros?, ¿qué pasa con las aplicaciones ya productivas?. Aquí el planteo que nos hacemos es que modificarlas tiene un impacto muy alto o es imposible hacerlo. pero puedo aprovechar puntos de integración como….. eventos.

¿Como aplicamos este patrón?

Podemos extender el patrón y delegar la responsabilidad en una aplicación externa. Esta aplicación debería estar enfocada puramente en la consulta y tener la capacidad de escalar fuertemente en ese aspecto.
¿Como escalaríamos en datos?, apostando a la innovación y aprovechar una tecnología como bases de datos en memoria para la cual la escalabilidad es una fortaleza. En mi experiencia he usado Infinispan, es fácil de usar y realmente permite la escalar muy fácilmente. Las últimas versiones corrigieron problemas de manejo transaccional y solucionaron problemas de locks en la sincronización de instancias. Esto me permite tener una base de datos con plena capacidad de escalamiento horizontal estructurada de tal manera que puedo satisfacer las necesidades de consulta. La alimentación de la estructura de consultas se realiza mediante eventos lo que comúnmente se denomina event sourcing, las ventajas claras de este diseño son:

  • Componentización de datos que permite armar estructuras a partir de múltiples orígenes
  • Desacople total

Como todo tiene sus desventajas

  • Inconsistencia temporal, es decir podemos tener lecturas durante un período de tiempo.

Infinispan

Infinispan es una base de datos en memoria bajo el esquema clave/valor. Su poder reside en la velocidad de acceso a los datos no solo por estar en memoria si no por el acceso directo por clave. El acceso por clave representa una clara ventaja si los servicios que exponemos tienen en cuenta que la clave de búsqueda corresponda con la clave de almacenamiento del dato.
Infinispan puede utilizarse como API o como servidor.
En esta arquitectura vemos ISPN como un punto de concurrencia de muchas aplicaciones donde una escribe y todas las demás leen. De modo tal que hay una serie de servicios exponiendo la información.
Como API obtenemos
  • Menor uso de la red
  • Mayor flexibilidad para hacer procesamiento de datos combinados
  • Las lógicas de procesamiento de los datos escala con los nodos.
  • No genero carga sobre el ESB o una capa extra para accede a los datos.
  Como servidor obtenemos
  • Integración vía hotrod
  • Flexibilidad en el escalamiento de la infraestructura
  • Problemas, reinicio o deploy de nuevas versiones de la capa de servicios son independientes de la capa de persistencia en Infinispan.

Integración de aplicación legacy

    • Si la aplicación es comercial debemos analizar los puntos de integración que brinde. En caso de no tenerlos existe la posibilidad (aunque desagradable) de implementar un mecanismo de pooling sobre la base de datos (trigger, pooling daemon, etc) que permita informar las novedades.
    • ¿Cómo garantizamos la llegada de la totalidad de las novedades?
      1. Podemos hacer que la persistencia en la plataforma de eventos forme parte de la transacción.
      2. Podemos definir algún mecanismo de reintento manual o automático para la persistencia del evento.

 A partir del momento en que tenemos el mecanismo de carga de los datos, la configuración del cluster de datos en memoria es totalmente independiente.

  • Puede ser replicado o distribuido, dependiendo de la cantidad de datos a almacenar, la robustez que pretendamos y los tiempos de rehidratación.
  • El cache store asegura la posibilidad de recuperación ante caída o error en algún nodo o el cluster completo. Normalmente es ineficiente o imposible hacerlo desde el origen.

Bus de eventos

Por más que evalúo alternativas siempre llego a la misma conclusión, la mejor manera de implementarlo es a través de alguna plataforma JMS. El bus debe funcionar como buffer de eventos permitiendo cierto grado de elasticidad a los consumidores y logrando que la persistencia del evento tenga un mínimo impacto en la performance y costo de recursos del productor.

Para garantizar la llegada de los eventos al bus tenemos dos estrategias:
  1. Quién publica incorpora la publicación como parte de la transacción, lo cual implica:
    • Si el bus de eventos no está disponible la transacción no puede llevarse a cabo
    • La transacción se alarga
  2. Quién publica tiene un mecanismo de persistencia y reintento, esto implica:
    • Mayor infraestructura
    • Aumento de las responsabilidades de la aplicación que publica
Cualquiera sea la alternativa cuanto más podamos garantizar la disponibilidad de la plataforma y su escalabilidad mejor.Esto permitirá soportar el aumento del volumen de mensajería y su tiempo de disponibilidad (availability).
Estrategia JMS:
Esquema public-subscriber: permite escalar en el consumo de mensajes y permite también la incorporar consumidores sin reiniciar o configurar la infraestructura.
Subscriptores durables: garantiza la conservación del mensaje hasta que el consumidor lo tome.
Mensajes persistentes: garantiza la permanencia del mensaje aunque se reinicie la plataforma.
La estrategia consiste en armar un esquema pub-sub donde un publisher envía un mensaje a un tópico y n subscriptores lo toman. Esto permite escalabilidad en los subscriptores al registrarse con el mismo client-id y al ser persistente nos permite garantizar la llegada del mensaje.

Conclusión

La integración de aplicaciones mediante servicios y/o eventos genera problemas de impacto entre aplicaciones. El problema de administrar el impacto de la integración encuentra un buen atenuante en la segregación de responsabilidades. Las bases de datos en memoria y JMS son tecnologías que brindan las funcionalidades adecuadas para la implementación de una arquitectura CQRS y permiten abstraer consumidores de productores y almacenar estructuras de consulta. Particularmente mi experiencia con Infinispan para brindar servicios de consulta y JBoss A-MQ para administrar la mensajería ha sido más que satisfactoria permitiendo tener una infraestructura 7×24 con garantía de delivery de mensajes y brindar servicios de alto volumen reduciendo los tiempos de respuesta entre 10 y 100 veces.