sábado, julio 06, 2019

Procesos de calidad en repositorios

Descripción de los Procesos de Calidad de Datos en el Repositorio de Información Básica (Primera Parte)
(Ensayo)

Las actuales posibilidades de la administración electrónica hace necesario propuestas que provean soluciones, que permitan gestionar los procesos y por ende la calidad de datos únicos y especializados, que admitan diseñar, gestionar, desplegar y controlar soluciones de calidad de datos; que afronte los problemas detectados por y ofrezca una solución única para abordar la calidad de datos en múltiples puntos, al tiempo que mantiene un control y gestión centralizados de las normas de calidad de datos.

La calidad de los datos requiere de una serie de procesos antes de ser cargados a un sistema y más si lo que se pretende es cargarlos a la Internet. Se debe definir un modelo que permita almacenar dichos datos antes de que sean difundidos.

Procesos de control de calidad:

Se deben preparar todos los datos antes de hacer el proceso de transformación, cargarlos al sistema, deben ser definidos, descritos, evaluados y documentados, previamente, y durante la fase de planeación; manteniendo y gestionando los diferentes entornos de trabajo: de desarrollo -para la realización análisis, diseño, son herramientas que velan por la calidad del proceso, la calidad de las entradas (diseños necesarios por los equipos de producción) y por el cumplimiento de normativas y estándares.

El repositorio de información está diseñado para dar respuesta, principalmente, a las necesidades de información, a través del análisis de los indicadores clave de gestión, obtiene respuestas a preguntas como: qué se hace (nivel de servicio), cuándo y cómo se hace (eficiencia) y con qué recursos se hace (eficacia).

En el plano operativo, el repositorio consiste básicamente en una base de datos centralizada y estructurada. Esta base de datos se alimenta principalmente del sistema de gestión de expedientes, generador  fundamental de la información requerida, y del resto de sistemas operacionales.

1.    procesos de extracción
Básicamente es la primara fase de un proceso de minería de datos, entradas, fuentes de datos para las operaciones estadísticas, salidas, archivos palos, entre otros, son los procesos que se utilizan para extraer e integrar datos de fuentes muy diversas y plataformas muchas veces heterogéneas y acceder a información contenida en sistemas que no están concebidos ni diseñados para las exigencias de un proceso masivo de análisis de datos.

Generalmente es muy frecuente tener que enfrentarse a gran cantidad de fuentes de datos dispares, a la falta de conocimiento organizativo sobre los sistemas de origen, y a problemas inesperados de calidad de datos, resultantes de los procesos de recolección; estos reposan en la plataforma de entrada y son copias de archivos planos. Es necesario validar el trabajo a través de las auditorias
                                                             
2.    Procesos de transferencia
Transferencia de datos de forma simultánea, en oposición al proceso o transferencia en serie; copia ficheros y carpetas desde una ubicación a otra en el mismo disco, a través de técnicas FTP o a través de la Red. Puede establecer proyectos que describan el origen de los datos, el destino y la frecuencia a la que quiere copiar los archivos.

3.    Proceso de filtración y estandarización
o   Filtración, descripción del proceso y reglasè transformación definitiva de datos, eliminar lo que no se necesita. Separar todos aquellos datos que requieran un estándar para ser tratados conservando su integridad; se toman en cuenta ciertas reglas que pueden o no ser aplicadas en dados casos como por ejemplo en la remoción de los campos individuales en un archivo o de una o mas filas de registros. Al configurar las reglas de filtración se puede obtener datos de registros duplicados y validarlos o descartarlos en caso que sean redundantes.

o   Estandarización, descripción del proceso è si se estandarizan los datos hasta la unidad mas pequeña podremos conocer o identificar la duplicidad o in valides de muchos datos o validarlos, para ello se realiza un proceso de auditoria de la estandarización; lo primero que se debe hacer es convertir los valores que no están estandarizados en estándar, para que no hagan que el proceso sea defectuoso tengan en cuenta los resultados de este proceso y, por otro lado los procesos de estandarización se consideren las particularidades y funcionalidades involucradas en como sistemas adaptativos con el fin de garantizar la utilización de todos los datos, trabajar bajo el esquema de un solo modelo.

o   Reglas de estandarización, redundancia de valor, inconsistencias de formato, valores de significado, valores no atómicos y las actividades que se realizan è los mismos significados que no permitan analizar los datos, se debe tener un consenso claro con las personas involucradas para definir las reglas y la transformación de dichos datos. Consiste en tener unos parámetros definidos que permitan ser muy claros a la hora de ingresar los datos al sistema, no se debe ingresar lo que se quiere, si no definir, es decir manejar un formato clave, palabras claves o definidas, atributos y/o unos valores preestablecidos  de modo que al filtrar la información no se quede ningún dato por fuera de la información que se esta buscando.

Los valores o datos que se quieren o pretenden estandarizar deben ser muy claros, ya se debe haber  hecho la búsqueda, es decir se deben tener identificados y revisar la funcionalidad que cada uno de ellos pueda tener y además documentarlos las decisiones tomadas para cada parametrización.

o   Integración, descripción del proceso y reglas è durante este proceso se examinan los datos estandarizados, si se encuentran duplicados dentro del sistema integrarlos y proporcionar una guía que ayude a evaluar una situación de carga de datos, identificar los factores primarios que afectan al rendimiento de integración de datos y maximizar el impacto de técnicas de optimización específicas.

Para identificar las posibles oportunidades de optimización, primero se da la solución de integración en tareas específicas o unidades de trabajo y, a continuación, todas las operaciones de datos que forman parte de cada tarea. Algunas de estas operaciones se pueden identificar fácilmente, pero algunas de las mejores oportunidades de optimización de rendimiento pueden ser menos obvias.

o   Reglas de integración, igualdad o semejanza de campos e integración de duplicados è Las reglas de estandarización definen los valores de igualdad con que se van a definir; resaltar la necesidad de comprender todas las operaciones de datos que forman parte de la solución para que puede identificar las oportunidades que hay que optimizar. Esto significa ir más allá de las tareas obvias disponibles para identificar la secuencia completa de operaciones a partir del origen de datos mediante cada operación de integración de datos para el destino determinando dichas técnicas.

Conclusiones:
El resultado es que el conjunto de procedimientos administrativos presenten una misma cabecera de datos y que procedimientos similares compartan un mismo esquema y fases de tramitación, identificando sus flujos y los órganos que intervienen, consolidando e interrelacionando los datos de los sistemas de información para que, a partir de los mismos, sea posible generar información y conocimiento de la realidad que nos rodea en todos sus niveles de agregación.

El sistema debe abarcar el conjunto de procesos, actividades, tareas y flujos de información de la administración de forma normalizada (procedimientos, documentos, formularios, etc.) e integrada (dato único, imágenes). 

No hay comentarios: