Aplicación del método científico en la planeación y desarrollo de sitios web

Luis Alberto Martínez Álvarez

metodo

Por Luis Alberto Martínez

(Este trabajo se envió como proyecto final para el curso de Pensamiento Científico, que tomé en junio pasado y que fue impartido por el Dr Carlos Gershenson del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas de la Universidad Nacional Autónoma de México)

***

Mucho hemos hablado y mucho se ha escrito en torno a la presencia del método científico y su importancia dentro de cualquier investigación, principalmente en los ámbitos de las ciencias naturales y exactas, como la medicina, las neurociencias, etc, y en ciencias sociales como la economía, la sociología, etc, sin embargo ¿Qué pasa cuando lo aplicamos para la ingeniería, el diseño gráfico o la comunicación? Existe una disciplina donde convergen estas tres áreas, el diseño web.

A diario utilizamos portales de internet, interactuamos mediante herramientas de diversos propósitos en la red, revisamos nuestro correo electrónico, leemos los periódicos, compramos en línea, interactuamos en redes sociales y nos informamos de diversos productos o servicios. Lo que para nosotros representa un simple “click” resulta para quienes están detrás – no en todos los casos pero en la mayoría- un profundo trabajo multidisciplinario que integra a programadores, diseñadores gráficos, comunicólogos, publicistas, etc.

Claro está que la complejidad de un sitio web está estrechamente ligada con el propósito de la misma y las ambiciones del proyecto y sus desarrolladores. El desarrollo de muchos de ellos implica meses de planeación y estrategia, amén de integrar  a un complejo equipo de personas dentro del mismo.

Cuando se nos presenta un nuevo proyecto de desarrollo web, inicia por lo tanto el proceso para la resolución de un problema y para el establecimiento de experiencia en los métodos para llevar a cabo dicha solución (es) en un futuro determinado.

EL MÉTODO CIENTÍFICO

Tenemos entonces que el método científico nos permite elaborar y poner a prueba soluciones a problemas, también nos permite teorizar  acerca de cómo o por qué operan las cosas, y también procura reducir la influencia de la “fe”, las creencias o prejuicios del observador o experimentador para que el proceso sea válido universalmente.

Como vimos el método científico tiene dos ejes fundamentales: es reproducible y es refutable, en otras palabras un experimento o prueba está propensa a repetirse muchas veces en diferentes contextos y condiciones y también dicha prueba está susceptible de ser falseada, contradicha y puesta en “tela de juicio” por la comunidad científica o por los mismos experimentadores.

Es necesario señalar que dentro de un experimento se usan además métodos definitorios, métodos clasificatorios, métodos estadísticos, métodos hipotético-deductivos, procedimientos de medición y demás herramientas que nos permiten validar y sustentar el trabajo desarrollado.

 

Recordemos que el método científico plantea las siguientes etapas:

Observación >> Inducción >>Hipótesis >> Experimentación >> Predicción >>Verificación >>Conclusión.

Observar, es aplicar los sentidos y realizar mediciones entorno a un objeto de estudio o un fenómeno tal como se presentan actualmente, ya sea ocasional, causal, o frecuentemente.

La inducción refiere a la extracción de los principios de dichos fenómenos mediante la experiencia obtenida de la observación y medición.

En la hipótesis es entonces cuando se realiza un planteamiento, es decir una idea que puede o no ser verdadera, basada en información previa. Su valor reside en la capacidad para establecer más relaciones entre los hechos y explicar el por qué se producen. Normalmente se plantean primero las razones claras por las que uno cree que algo es posible.

La experimentación nos ayuda a probar o refutar la hipótesis mediante pruebas de laboratorio o diversas operaciones con variables que se modifican de acuerdo a la influencia que puedan tener dentro del fenómeno u objeto de la hipótesis.

Al predecir, presuponemos ciertos cambios y consecuencias que se dan en función de nuestra hipótesis, y el resultado de la experimentación y observación y los cambios de variables que el experimentador plantea.

La verificación es también una posible refutación o validación de nuestra hipótesis, que se dan después de que se analizan y verifican los resultados de la experimentación, esta puede echar abajo la misma hipótesis y entonces obligar a un replanteamiento de la misma, o en su defecto permite validar el experimento y por tanto dar como válido el conocimiento y experiencia obtenidos partir de ella.

Al final se generan una serie de conclusiones que permitirán a quien desarrolló el experimento obtener un conocimiento y aplicarlo;  además se establece para una comunidad un antecedente y una base firme para continuar, enriquecer o contradecir el conocimiento presentado.

DESARROLLO WEB

Para efectos de este artículo y con las reservas que una disciplina como el desarrollo web tiene dado su muy novel creación será muy útil explicar brevemente a que nos referimos y a que NO nos referimos con desarrollo web.

El desarrollo web es la integración y uso de lenguajes informáticos, dispositivos tecnológicos físicos como servidores, conexiones, computadoras, teléfonos celulares, etc, y elementos comunicacionales, gráficos y estéticos para la elaboración de interfaces y aplicaciones de propósito determinado, útiles para la propagación de información o para la obtención de datos o la interacción de usuarios mediante internet.

Es decir, el desarrollo web, no es sólo la configuración o codificación de una página web, en el desarrollo web no sólo se involucra a un programador, sino, como se dijo en la introducción, es una rama multidisciplinaria que involucra a programadores, diseñadores gráficos, generadores de contenido, comunicólogos, publicistas, y todos aquellos capaces de sustentar el contenido o el funcionamiento de alguna aplicación en internet.

El desarrollo web, entonces, es una disciplina que requiere coordinar a muchas personas y por lo tanto confrontar permanentemente diversas ideas hasta obtener un sentido común entorno a un determinado proyecto.

LAS SIMILITUDES Y EL PROCESO DE UN PROYECTO WEB

La observación dentro del desarrollo web es el inicio de las grandes ideas, los grandes proyectos y los grandes negocios.

Permanentemente aquellos que estamos inmersos en esta disciplina, y sobre todo aquellos entusiastas apasionados del desarrollo web, estamos en una constante observación del fenómeno web. Día a día estamos pendientes de las nuevas tecnologías, los nuevos dispositivos y las nuevas técnicas y mediciones que se dan en torno a la web. Estamos pendientes de las tendencias y frecuentemente revisamos las publicaciones y las normas vigentes en materia web. Tratamos de refutar métodos, tendencias y de apoyar a la comunidad de desarrolladores.

Como lo vimos más arriba, producto de esta observación viene la inducción, es decir, se obtienen principios y experiencias. En el desarrollo web, la constante observación de los fenómenos y la dinámica web, permite hacerse de una serie de experiencias y bases sólidas que permiten también dominar o al menos visualizar las tendencias del mercado, las tendencias de la interacción humana mediante internet, y tener claros los entornos de trabajo.

Planteo entonces un ejemplo de inducción dentro del desarrollo web.

El impacto visual, el diseño web –que muchas veces se confunde con el desarrollo web- es entonces quien plantea la estética de un proyecto web. Por ejemplo para la concepción gráfica de un sitio web se tienen 5 principios.

  Equilibrio   Ritmo   Proporción   Dominio   Unidad

 

El equilibrio es la disposición de los objetos en un diseño dado que se refiere a su peso visual dentro de una composición. Puede presentarse en dos formas: simétrica y asimétrica.

El ritmo es la repetición o alternancia de elementos, a menudo con intervalos definidos entre ellos. El ritmo puede crear una sensación de movimiento, y puede establecer un patrón y la textura.

 

Proporción es la comparación de las dimensiones o de distribución de formas. Es la relación de escala entre un elemento y otro, o entre un objeto de conjunto y una de sus partes.

 

Dominio se refiere a diversos grados de énfasis en el diseño. Se determina el peso visual de una composición, establece el espacio y la perspectiva, y suele desaparecer cuando el ojo va primero al lugar donde se mira en un diseño.

 

El concepto de unidad describe la relación entre las partes individuales y el conjunto de una composición. Investiga los aspectos de un diseño dado que son necesarios para empatar la composición en conjunto, para darle un sentido de totalidad, o para romperlo y darle un sentido de la variedad

Hipótesis. La concepción de un proyecto web.

En función de las tendencias y las observaciones por parte de los actores y expertos inmersos en las tecnologías web se detectan necesidades en ciertos sectores de los usuarios de internet  (utilizaría el término cibernautas pero siempre me ha parecido chocante, ridículo y chafón), estas necesidades van en función de alguna actividad común a dicho sector, de algún evento social o cultural o hasta de alguna moda temporal.

He aquí un ejemplo:

En función de la experiencia, la observación y las tendencias tanto tecnológicas como de uso, algún experto web podría sugerir una aplicación web móvil que permita a los usuarios que la descarguen en sus equipos celulares obtener los resultados en vivo de los partidos del mundial de futbol, con estadísticas a nivel de cancha, breves textos con comentarios de los analistas e imágenes de los goles o pequeños clips de video de las mejores jugadas. Por tanto he aquí el planteamiento o hipótesis dentro del desarrollo web. ¿funcionará? ¿Los usuarios de tal o cual compañía telefónica descargaría dicha aplicación? ¿Será útil y rentable?

De esta forma cuando se plantea un nuevo proyecto web, se comienza por establecer un objetivo, e inicia un proceso de investigación para determinar cuál es la mejor forma de desplegar la información y de realizar la interface con los usuarios.

Se exploran otras fuentes, se navega por otros sitios del mismo tipo en la red, se observan y se apuntan los detalles observados en ellos, y en base a esta observación y a la experiencia se plantean prototipos. Estos prototipos se convierten entonces en la materia prima de la experimentación,

La experimentación en función de prototipos dentro del desarrollo web es una de las etapas más importantes, ya que esta previene los gastos económicos excesivos de un proyecto y por tanto su viabilidad monetaria.

Existen dentro del diseño web diversas herramientas y técnicas de experimentación, por ejemplo la Analítica web que de acuerdo a Sergio Maldonado se define como la disciplina profesional encaminada a extraer conclusiones, definir estrategias o establecer reglas de negocio sobre la base de los datos recabados en todos aquellos entornos web sobre los que una empresa ejerce control, es decir es la recopilación, medición, evaluación y explicación racional de los datos obtenidos de Internet, con el propósito de entender y optimizar el uso de una aplicación web. Existen también pruebas de prototipos en grupos de usuarios, test de usabilidad, encuestas y estudios de opinión, liberación de interfaces Beta, etc.

A partir de un prototipo y de las observaciones encontradas, se hacen los ajustes necesarios, los cambios sugeridos y se integran a otros profesionales en el proceso, abriendo también nuevas hipótesis, de imagen visual por ejemplo, de estructura, de publicidad, etc.

Se genera un nuevo prototipo o una nueva versión que se libera para un siguiente periodo de observación y pruebas, y entonces se llega a un punto de predicción, determinado las posibles acciones y comportamientos de los usuarios y previniendo los errores a los que estos usuarios podrían llegar ejecutando determinada acción.

Es en esta etapa cuando el desarrollo de un proyecto web alcanza una madurez ya que derivado de las pruebas, la analítica, los prototipos etc, se pueden integrar al resto de los profesionales inmiscuidos, y se puede predecir el resultado de tal o cual cambio, y por tanto optimizar el prototipo e iniciar el desarrollo pleno de la aplicación.

Al finalizar el desarrollo y una vez que se han subsanado hasta los últimos detalles  y después de conjuntar toda la información con todos los actores inmiscuidos en el proceso del desarrollo web, entonces se llega a la liberación del producto y con ella la validación y verificación de la aplicación es aquí donde no hay marcha atrás pues es el público, aquellos quienes utilizarán la aplicación quienes finalmente determinarán su éxito su posible consolidación, o en su defecto su refutación que para efectos del desarrollo web, implicaría un replanteamiento, un nuevo versionado de la aplicación o su inminente salida de la red.

El desarrollador web en función de su experiencia propia pasada, y la experiencia obtenida dentro del desarrollo del proyecto web, entonces sacará una serie de conclusiones útiles para el desarrollo de futuras aplicaciones y las herramientas suficientes para declinar o inmiscuirse en un proyecto web similar.

CONCLUSIÓN

El desarrollo web al ser una disciplina muy grande que incluye a otras tantas, y que día a día se enfrenta a proyectos e ideas nuevas, tiene en el método científico un interesante referente que le puede permitir conservar un carácter preciso y la formalidad requerida. Si bien es cierto que algunos elementos del método científico no se pueden aplicar al pie de la letra, es muy importante señalar que las grandes empresas de desarrollo web, establecen métodos que de forma empírica se asemejan al mismo.

Bloggers y democracia

Luis Alberto Martínez Álvarez

En los últimos años la apertura y facilidad de acceso a internet para la clase media ha generado a nivel mundial una idea de asequibilidad para comunicar mensajes, ideas y posturas. Se piensa entonces que al abrir la puerta de internet, se abre la puerta a un mundo donde cualquiera que quiera decir algo tiene cientos de miles de destinatarios potenciales, por lo que lo único que se necesita es generar el interés de una comunidad, sin embargo ¿hasta dónde es cierto esto?

Que nuestra voz sea escuchada a lo largo de la historia es un anhelo de muchos y un privilegio de pocos, lograr que nuestra idea sea recibida por la mayor cantidad de personas, y que se convierta en influencia significante para la sociedad es una labor que ha implicado mucho esfuerzo y que se da sólo a unos cuantos.

Los medios como la radio, la televisión y la prensa escrita tienen cada uno su propia evolución y, a lo largo de los últimos siglos, los avances tecnológicos para su desarrollo les han permitido ampliar su impacto, optimizar sus recursos, abaratar sus costos de producción, y ampliar sus espacios. Sin embargo los espacios que se han abierto muy pocas veces están enfocados en el ciudadano ‘de a pie’ , sólo existen espacios muy específicos como anuncios clasificados, encuestas, foros, desplegados pagados o programas ciudadanos especiales, que, aún en los formatos más libres, están bajo el control y supervisión de quien los abre, a la merced de los intereses de quien los produce y por tanto sujetos a una regulación y/o censura.

Internet en los últimos 10 años ha venido a cambiar aparentemente esta situación, se generaron espacios de comunicación nuevas que con la aparición de las llamadas redes sociales potencializaron la capacidad de comunicación de cualquiera con el simple hecho de tener acceso a internet y por lo tanto se construyó la idea de la “democracia digital’ en donde todos tenemos voz.

Surgieron entonces los ahora tan comunes blogs, espacios virtuales en forma de bitácora donde cualquiera puede escribir lo que se le venga en gana sin la aparente censura de nadie y con una audiencia potencial de miles de personas, pero la posibilidad de llegar a la gente y tener éxito en la red es tan similar como la de comprar un boleto de lotería y ganarla. Mattew Hindman nos pone los pies en la tierra y recuerda que también en internet, existe la diferencia entre poder hablar y ser escuchado.

Se le llama blogger a aquella persona que lleva un blog periódicamente, escribe sobre un tema en particular y genera influencia en sus lectores, ganando credibilidad e interés para una determinada comunidad.

Sin embargo, todos los bloggers son élite de una forma u otra. La mayoría de aquellos con cierto éxito en el país y en el mundo tienen un grado académico, o una preparación universitaria, algunos son profesores universitarios, abogados o periodistas; Muchos de ellos son miembros de algún medio tradicional de élite, perteneces a la plantilla de importantes periódicos nacionales, comunidades científicas o institutos académicos, mismos que la llamada blogósfera critica. En nuestro país por ejemplo un sector muy amplio de bloggers influyentes pertenece a la élite del mundo de las empresas, son dueños de negocios o gente que toma decisiones a nivel corporativo.

Tener un blog con una cantidad de tráfico considerable requiere para su éxito actualizaciones frecuentes; una persona que tiene un turno de 8 o 10 horas en un trabajo agobiante difícilmente puede hacerlo, por tanto los bloggers exitosos tienden a ser gente que tiene cierta autonomía social, algo de solvencia económica, no tienen supervisores directos y que pueden gestionar su propio tiempo además cuenta con el acceso ilimitado a internet en su casa o área de trabajo.

El doctor e investigador chileno Carlos Castillo plantea que “Internet contribuye a darle voz a los que ya tienen una voz, y saben utilizarla para deliberar”

Y hace una cita muy interesante de un tal Berkowitz “…. parece ser en efecto una aristocracia de intelectuales. En la práctica, es probable que el poder fluya hacia los decanos y directores, los profesionales y expertos, y todos aquellos que, por virtud de una educación avanzada, rapidez de pensamiento y fluidez del habla pueden persuadir a otros de sus habilidades en las altas artes deliberativas.”

Este fenómeno existe de forma similar dentro de las redes sociales, claro con algunos otros puntos específicos, propios de su dinámica, sin embargo en un próximo artículo abordaré este enfoque.

En conclusión sostengo que se tiene una falsa idea democrática de comunicación dentro de la red, tener la posibilidad libre de expresar algo en internet, no significa lograr que tenga impacto, influencia y éxito en él… eureka!

Industria TI

Luis Alberto Martínez Álvarez

¿Por qué se habla tanto de ella?

A menudo, cuando encendemos el televisor en el canal de noticias, cuando toca el turno del economista, este nos habla de la industria de las tecnologías de información, oímos sobre Cisco, sobre Microsoft, sobre Apple, o sobre un sin número de empresas que cotizan en la bolsa. En los diarios solemos encontrar análisis, indicadores y noticias de actualidad sobre este tópico, siempre acompañados de cifras millonarias generalmente en euros o dólares. Todos estamos de acuerdo en que vivimos una era nueva en cuanto a transmisión de la información, tan solo la acción de leer a un servidor en este momento es parte del paradigma actual de comunicación; pero ¿Cómo está organizada la industria de las tecnologías de información? ¿Cómo evolucionó y que lo compone?

El concepto de tecnología de la información viene dado desde los setentas mediante una alianza entre la industria militar, las universidades, y diversas industrias, a través del desarrollo conjunto de la electrónica de computadoras y la teoría de información. En concreto se conoce como tecnología de información a toda aquella tecnología empleada para generar, manipular, almacenar y comunicar información. También implica la investigación, diseño, desarrollo, implementación y soporte de los sistemas de información y el hardware de computadoras.

La industria de la información está dividida en 3 sectores, el sector de hardware, el sector de software y el sector de servicios. Muchas empresas involucradas en TI le apuestan a la diversificación de servicios, por lo que existen intersecciones en sus conjuntos.

Las empresas del sector hardware están abocadas principalmente al desarrollo de mejores componentes; la física y la electrónica aplicadas a la construcción y mejoramiento de aparatos y equipo para la transmisión y manipulación de la información. Las redes de computadoras, la telemática, las comunicaciones, la telefonía móvil, los pda’s, la arquitectura de computadoras, entre otros, son algunas de las ramas presentes en este sector.

El sector software comprende la producción de todas aquellas aplicaciones, programas o paquetes dedicados a la gestión y manipulación de la información. Algunas de las ramas que comprende este sector son el desarrollo de sistemas operativos, open source, integración, aplicación y desarrollo de software, criptografía, bases de datos, sistemas de información geográfica, análisis de la información, desarrollo web y desarrollo de aplicaciones de escritorio.

En el Tercer sector se conglomeran todos aquellos servicios profesionales, de investigación y desarrollo para el mejoramiento de procesos de información, estos también son extendidos a la optimización de procesos de producción por lo que su relación con la administración de empresas es muy estrecha. El sector servicios comprende ramas cuyo desarrollo ha venido creciendo exponencialmente en los últimos años, tales la Gestión de Procesos de Negocio mejor conocido como BPM, la Planeación de recursos de negocio o ERP, el Outsourcing, la inteligencia de negocios, La arquitectura orientada a servicios también conocida como SOA y la consultoría TI sobre la cuales ahondaremos en las próximas entregas de Eureka.

El éxito de la industria TI y su actual creciente desarrollo está básicamente dado por 3 factores. El primero es el desarrollo de la microelectrónica que ha constituido la posibilidad de lograr más y mejores equipos, más compactos, económicos y potentes el segundo factor es el fuerte crecimiento de las telecomunicaciones ya que se ha ampliado a mñas personas el uso de redes locales y globales de información, por ulltmo el desarrollo de software cada día más simple para la sociedad, generación de aplicaciones atractivas y de fácil acceso que han logrado masificar el conocimiento y uso de las herramientas informáticas. Lo anterior ha permitido que se reduzcan costos los costos de la adquisición de este equipo permitiendo ampliar la integración de sistemas de información en otros sectores, no solo el académico, militar o industrial.

La industria de TI está actualmente posicionada como una de las industrias más atractivas para la inversión, ya que al año genera miles de millones de dólares, el impacto económico que tiene en todo el mundo le ha permitido considerarse como el negocio del futuro, sin embargo esta situación se ha convertido en un arma de doble filo ya que si bien el desarrollo y crecimiento económico de esta industria está dado por el impacto y creación de una sociedad de información, también es cierto que está rodeada de mucha especulación, lo que ha hecho que las expectativas económicas rebasen en demasía el valor real de tal o cual empresa, un ejemplo palpable de ello lo pudimos ver en la pasada crisis financiera, ya que el sector TI se vio sumamente afectado.

Para lograr una industria fuerte y consolidada, las empresas de TI se han agrupado en asociaciones, que permitan el mejoramiento de esta industria. La ITAA -Information Technology Association of America y la WITSA-World Information Technology and Services Alliance- son las asociaciones más importantes del mundo y actualmente concentran al 90% de las empresas de desarrollo TI en el mundo, la primera ha generado las reglas de operación y estándares para el manejo de las empresas de TI. En México la Asociación Mexicana de la Industria de las Tecnología de la Información AMITI, surgió desde 1985 para impulsar el crecimiento de esta industria en nuestro país, y cuenta actualmente con casi 200 empresas asociadas del país.

Las tecnologías de información actualmente se encuentran inmersas en muchas ramas del conocimiento humano, su fuerte investigación y posicionamiento, las han venido situando en el espectro económico mundial, el que controla la información controla al mundo…Eureka

¿Cuántos somos? Censos de población

Luis Alberto Martínez Álvarez

Todo país que se precie de ser organizado, debe conocer el número de habitantes en su territorio así como las condiciones de vida de cada uno de ellos; el manejo de la estadística es básico para la planeación de políticas públicas de cualquier orden. En los próximos meses, entre el 31 de mayo y el 25 de junio, un ejército de encuestadores, mochila al hombro, armados con papeles, plumas, gorras y botellas de agua, recorrerán estóicamente una a una las viviendas de nuestro país, distrayendo de sus quehaceres cotidianos a sus moradores con la misión de saber cuantos viven, como viven y si todavía viven. Una duda seguramente atormenta a mis, cada día más, inquietos lectores ¿Cómo se hace un censo de población en la actualidad?.

Existen dos tipos de censos, los de hecho o de facto y los de de derecho o de jure, el primero empadrona a toda la población presente en el territorio de estudio, es decir, por ejemplo, en una casa cuentan a todos los presentes, aún cuando estos estén “de paso”, el segundo registra a toda la población “residente” en el territorio de estudio –presente o ausente-, este es el tipo de censo utilizado en México y la mayoría de países.

Para llevar a cabo un censo se requieren una serie de elementos básicos:

Una entidad de gobierno nacional que auspicie este censo, encargada de establecer las estrategias, coordinar el trabajo y concentrar la información. En México el encargado de esto es el Instituto Nacional de Estadística, Geografía e  Informática  (INEGI), que en coordinación con sus delegados regionales, y estatales conjuntan una estructura de personal organizado.

Un área territorial perfectamente definida, con una correcta división político-administrativa, un buen levantamiento cartográfico que asegure una completa captación de la información sin caer en duplicidad o ambigüedad. Para ello el INEGI se basa en el Marco Geoestadístico Nacional que es un sistema que relaciona la información estadística con un espacio geográfico delimitado, este sistema divide al territorio nacional en elementos denominados AGEB (Área Geo-Estadística Básica) de dos tipos: urbano y rural, un ageb urbano es una extensión de terreno en la que existe un promedio de 2,500 habitantes y cuyo uso de suelo es en su mayoría habitacional, industrial, comercial o de servicios, un ageb rural es la extensión de territorio de aproximadamente 11000 hectáreas con uso de suelo agropecuario o forestal.

Ser universal, es decir debe cubrir todo el territorio nacional sin excepción alguna par obtener información exacta.

Ser simultáneo. Ya que los datos demográficos son muy dinámicos y la sociedad se mantiene en constante movimiento, el levantamiento debe fijarse en un periodo de tiempo lo más breve posible de cuerdo a los medios e infraestructuras dispuestos.

Debe ser periódico. Para que los datos se puedan comparar y se puedan determinar las tendencias demográficas los censos deben realizarse en periodos de tiempo constantes. En México el censo de población y vivienda se hace cada 10 años, existiendo un conteo muestral a la mitad de dicho periodo.

Una vez que se tienen cubiertos estos elementos básicos la entidad encargada del censo diseña un formulario o cédula con preguntas entorno al número de personas que habitan la casa, las condiciones económicas y de servicios con las que cuentan y estadísticas como religión y costumbres. Estas cédulas se reproducen y distribuyen en todo el territorio nacional en las oficinas temporales que se establecen en un gran número de puntos estratégicos del país. Cada una de estas oficinas se suministra de equipo de cómputo interconectado, sistemas de captura y personal para su administración. Estas oficinas se encargan de reclutar y capacitar a las personas que fungirán como encuestadores, se les capacita sobre el llenado de las cédulas, la interpretación de la cartografía y su desenvolvimiento en campo.

Posteriormente a los encuestadores se les agrupa en brigadas y se les reparte una extensión de territorio y unos planos cartográficos divididos en manzanas y lotes que recorrerán uno a uno entrevistando a los habitantes de la vivienda. Una vez efectuada la entrevista, esta es regresada a la oficina donde es procesada, se captura en bases de datos y archiva. La información de las bases de datos se clasifica y liga de nuevo con la información geográfica hasta obtener un producto geo-estadístico actual.

Censo de Población y Vivienda 2010

Este censo utilizará una cédula de información básica que consta de 29 preguntas, la cual se utilizará en cada una de las viviendas del territorio nacional, además se utilizará una cédula de información complementaria con 75 reactivos que se aplicará en 2.7 millones de viviendas muestrales. Se equiparan 1900 oficinas en todo el país equipadas con computadoras y acceso a internet, se contratarán más de 95,000 entrevistadores y cerca de 20 personas de apoyo y logística.

Se encuentre o no se encuentre, lo cuentan…Eureka!

Biometría. La ciencia contra la suplantación de identidad

Luis Alberto Martínez Álvarez

Hace unos meses en medio de mucha polémica se planteó la creación en México de un nuevo documento de identificación personal llamado entonces Cédula de Identidad Ciudadana; debido a los altos costos que representaría su producción, la redundancia de trabajo y la oposición por parte del Instituto Federal Electoral que vería muy afectada su operación al desmotivar a la ciudadanía para tramitar la credencial de elector, este proyecto fue rechazado, sin embargo se plantea rescatar un elemento muy importante: la integración de técnicas biométricas en los documentos personales de la población. Pero ¿Qué hace la biometría, y como nos ayuda?

La biometría estudia un sinnúmero de métodos para la identificación y reconocimiento único de seres humanos que generalmente se basan en rasgos físicos, o en cuestiones conductuales. De ahí que se genera la biometría informática que consiste en aplicar técnicas matemáticas e informáticas para la verificación de identidades. Con la integración de las Tecnologías de Información a la administración pública y privada, surgieron diversos dispositivos que automatizan el proceso de identificación humana.

El método más antiguo que se utilizó legalmente para identificar una persona fue la firma autógrafa, y la rúbrica, aquel conjunto de trazos y letras que un individuo diseña y repite en todo documento para aprobar su contenido. Este método aun vigente es el más económico e inmediato, sin embargo la suplantación mediante su falsificación esta a la orden del día y con la aparición de los trámites electrónicos se ha actualizado mediante el uso de lo que se conoce como firma digital, un conjunto muy amplio de caracteres, símbolos generados aleatoriamente y en un orden ininteligible que permita la comprobación de una persona en la realización de trámites digitales.

Otro método más utilizado y perfeccionado con el transcurrir del tiempo es la impresión de huellas digitales, en un principio las huellas digitales eran transmitidas al papel con la ayuda de tinta y siguiendo el principio básico de un sello, de tal forma que un especialista en peritaje, cotejaba un par de estas impresiones y dictaminaba su similitud, en la actualidad, existen en el mercado un sinfín de productos que permiten hacer esta comparación de manera casi inmediata mediante la aplicación de algoritmos de reconocimiento de patrones; las huellas en papel son escaneadas o en su defecto se toma la huella directamente con un escáner especial, y sujetas a la comprobación con un software especial de reconocimiento de patrones en las lineas.

Los seres humanos hicimos del reconocimiento visual del rostro la forma más simple de identificar a nuestros amigos, familiares y conocidos, con la aparición y automatización de algoritmos matemáticos por computadora este proceso se logró implementar en el campo de la criminalística y la seguridad nacional, en un principio este reconocimiento se basaba en comparaciones geométricas básicas, con la sofisticación de los sistemas este proceso conllevó un sinnúmero de operaciones que permiten alcanzar una precisión comparativa impresionante, al punto de identificar un rostro de un banco de datos de millones de ellos.

Asimismo otra forma de reconocimiento básica de los seres humanos fue la voz, en el proceso del habla influyen diversos factores como el aire, la constitución del tejido blando, la fuerza pulmonar, el tamaño de las cuerdas bucales, la resonancia de los orificios nasales, entre otros, de tal forma que se genera un espectro auditivo particular, este espectro es analizado con los sistemas tecnológicos actuales para determinar su pertenencia a una persona en particular. Este método es muy utilizado en el reconocimiento remoto de personas ya que la voz, a través de grabaciones magnéticas o llamadas telefónicas puede ser ligada a un orador en particular mediante el empleo de esta técnica

En los noventas surgió una técnica que vino a revolucionar los métodos biométricos y se posicionó su uso en diversos lugares cuyas necesidades de seguridad fueran muy altas, como aeropuertos, oficinas militares, edificios de gobierno y bancos. Esta técnica es el reconocimiento de iris, aquel músculo que se encuentra en el ojo y está encargado de regular la luz que entra en la retina, se forma en el periodo prenatal y al madurar genera un diseño de patrones únicos e irrepetibles que son utilizados para la identificación. Con el auxilio de una iluminación a partir de un diodo electro luminoso (LED), infrarrojo y mediante el uso de una cámara de alta definición se toma una fotografía nítida del iris del ojo, esta imagen es sujeta a una comparación automática mediante un software y algoritmos especializados, que distinguen las similitudes y/o diferencias con los aquellos códigos previamente registrados.

El avance de la biometría se está dando a pasos agigantados, dada la fuerte necesidad de diversos organismos por evitar la suplantación de identidad, el área criminalística, los bancos, el ejército, el gobierno, los hospitales, los aeropuertos, y grandes empresas están inyectando una fuerte cantidad de recursos en la investigación de técnicas biométricas y en la accesibilidad y reducción de costos de su uso.

Por último recomiendo visitar el sitio del gobierno argentino biometría.gov, uno de los líderes de América Latina en la investigación en ese rubro.

Nuestro cuerpo y nuestro comportamiento nos hacen únicos e irrepetibles…Eureka!