CLOUD COMPUTING AND BIG DATA

Ciencia, tecnologia y desarrollo

CLOUD COMPUTING

MAPA CONCEPTUAL

 10685153_10204031482203958_638798818_n

DEFINICIÓN DE CLOUD COMPUTING


Para encontrar el origen del término “Cloud Computing” tan común en estos tiempos hay que remontarse a los años 60. La idea de una “red de ordenadores intergaláctica” fue introducida en los años 60 por el Joseph Carl Robnett Licklider.  idea pionera que fue la base de ARPANET (Advanced Research Projects Agency Network) y posteriormente Internet.  “Su visión consistía en que todo el mundo, a lo largo y ancho del planeta estuviesen interconectadas y pudieran compartir información, datos y programas.” escribió Margaret Lewis, product marketing director de AMD. “Esa visión se parece bastJante a lo que hoy llamamos Cloud.”

El cloud computing las nuevas posibilidades de forma de negocios actual ofreciendo servivios a través de internet conocidas como e-business.


EVOLUCIÓN


Crecimiento de la tecnología informática ha ejercido presión sobre la necesidad de desarrollar dispositivos de almacenamiento que pudieran responder a la demanda de mayor espacio de almacenamiento, carácter portátil y durabilidad. Durante las primeras décadas de la expansión del almacenamiento informático, se produjeron avances a un ritmo lento pero constante, mientras que en los años más recientes hemos sido testigos de una velocidad de desarrollo cada vez más rápida. Hemos pasado de contar en bits nuestro espacio de storage disponible a las capacidades prácticamente ilimitadas actuales.

Bits (b): la tecnología de almacenamiento durante la década de los 50 consistía en tarjetas perforadas que podían almacenar alrededor de 960 b de información.

CARACTERISTICAS

El sistema basado en la nube permite a los usuarios almacenar música, videos, fotos, aplicaciones, documentos, enlaces favoritos de navegador, recordatorios, notas, iBooks y contactos, además de servir como plataforma para servidores de correo electrónico de Apple y los calendarios.

Cada cuenta tiene 5 GB de almacenamiento gratuito, el contenido comprado de Apple iTunes (Aplicaciones, música, películas y videos) se almacena de forma gratuita sin interferir en esos 5 GB. Todas las aplicaciones, películas y los archivos de música comprados a través de iTunes se descargan automáticamente a cualquier dispositivo registrado, por ejemplo, iPhones y computadoras. Cuando un usuario registra un nuevo dispositivo, todo el contenido de tunes se puede descargar automáticamente.

TIPOS DE MODELOS DE CLOUD

Al día de hoy existen 3 tipos de modelos de cloud disponibles en el mercado. Cada una de estas tiene sus características particulares con sus ventajas y desventajas.

Nube Privada: La infraestructura se encuentra aprovisionada para el uso único de una organización comprendida por diferentes consumidores (unidades de negocio). Esta puede ser de propiedad de la organización, de un tercero de una combinación de los dos. Esta puede existir tanto dentro del centro de cómputos propio de la organización como fuera de esta (servicio de cloud dedicado en un proveedor de servicios).

Nube pública: La infraestructura se encuentra aprovisionada y abierta para el consumo del público en general. Estas pueden ser personas, empresas, organizaciones o una combinación de ambas. La misma se encuentra siempre en los centros de cómputos del proveedor de servicios.

Nube híbrida: Esta es una combinación de los dos casos anteriores y se da generalmente cuando ambas (nubes privadas y públicas) tienen algún punto de conexión de forma de poder brindar servicios de forma conjunta o bien tener la capacidad de mover la carga de trabajo de una a otra de  forma simple.modelos-de-cloud-computing

VENTAJAS 

Los beneficios de trabajar en la nube son varios y es importante que los departamentos de tecnología y finanzas los conozcan para tomar mejores decisiones tanto tecnológicas como financieras.

Disminución de costos: Los recursos disponibles pueden ser distribuidos entre los diferentes servicios y aplicaciones provistas por la organización optimizando la utilización de la infraestructura disponible como así también aplicando una mayor eficiencia sobre los mismos.

Eliminación de Cap-Ex: en este contexto donde los recursos se pueden consumir como un servicio a un proveedor eliminamos la necesidad de adquirir infraestructura propia para brindar nuestros servicios y por lo tanto el Cap-EX.

Despliegue de proyectos rápido: con procesos manuales ya automatizados y con la capacidad de proveer nuevos servidores o plataformas en cuestión de minutos el tiempo de despliegue de nuevas aplicaciones o servicios se reduce drásticamente.

Escalamiento bajo demanda: nos permite comprar lo justo y necesario para comenzar con la operación y luego agregar recursos a medida que nuestra operación comienza a aumentar.

Costos de mantenimiento bajos: debido a que estamos trabajando con menos hardware y con operaciones tercerizadas a un proveedor de servicios nuestros costos de mantenimiento también se reducen drásticamente. Con un servicio de cloud contratada a un proveedor prácticamente de lo único que debemos ocuparnos es de mantener nuestras aplicaciones en linea, del resto de las tares (mantenimiento de servidores, almacenamiento y redes) debe encargarse el proveedor del servicio.

DESVENTAJAS

Seguridad: Se debe ser muy cuidadoso con el manejo de la información para evitar que los datos sean robados por hackers o extraviados en agujeros de seguridad.

Privacidad: Datos confidenciales y sensibles como planes de mercadeo, lanzamientos de productos, información personal de empleados, datos financieros pueden quedar en manos de terceros si no se tienen las medidas preventivas.

Conectividad: La velocidad de acceso a la información y la disponibilidad de las aplicaciones dependen de la velocidad de la conexión a internet. Sin acceso a Internet no hay Cloud Computing y este servicio puede caerse en cualquier momento por diversos factores.

Una vez que somos conscientes de las ventajas del “Cloud Computing” podemos tomar la decisión pero debemos antes analizar el mercado de aquellas empresas que ofrecen este servicio y evaluar las características que nos ofrecen para luego compararlas y escoger la que más beneficios y garantías nos ofrezcan, además debemos fijarnos bien en la solidez que dicha empresa tiene en el mercado. Esto con el fin de estar seguros que la empresa que escogemos nos va a resguardar los datos, y que nuestros clientes y empleados puedan acceder a los servicios de forma efectiva.

EJEMPLOS

Dropbox – desarrollado por Dropbox

Google Drive – desarrollado por Google

Wuala – desarrollado por LaCie


iCloud – desarrollado por Apple


SkyDrive – desarrollado por Microsoft


Campaign Cloud – desarrollado por ElectionMall Technologies powered by Microsoft


Ubuntu One – desarrollado por Canonical


Doitle ajaxplorer – desarrollado por Doitle


SugarSync – desarrollado por SugarSync

BIG DATA 

Big data

“Big data” es un término aplicado a conjuntos de datos que superan la capacidad del software habitual para ser capturados, gestionados y procesados en un tiempo razonable. Los tamaños del “big data” se hallan constantemente en aumento. En 2012 se dimensionaba su tamaño en una docena de terabytes hasta varios petabytes de datos en un único data set. En la metodología MIKE2.0 dedicada a investigar temas relacionados con la gestión de información, definen big data en términos de permutaciones útiles, complejidad y dificultad para borrar registros individuales.

En 2001, en un informe de investigación que se fundamentaba en congresos y presentaciones relacionadas, el analista Doug Laney del META Group (ahora Gartner) definía el crecimiento constante de datos como una oportunidad y un reto para investigar en el volumen, la velocidad y la variedad. Gartner continúa usando big data como referencia de este.

Volumen: tal vez sea la característica más inmediata, ya que hablamos siempre de grandes cantidades de datos. Para tener un marco de contexto, podemos pensar que cada minuto en el mundo se envían 100.000 mensajes de Twitter, se ponen 35.000 “Me gusta” en las webs oficiales de las organizaciones, se envían 200 millones de e-mails y se hacen 2.000 check-in en 4square. Todo esto, sumado a las restantes actividades “digitales”, da lugar a una asombrosa cantidad de datos que permite, al menos potencialmente, poseer un montón de informaciones que a su vez se pueden cruzar entre ellas. Es evidente que los ‘martketeers’ son los profesionales más atraídos por el potencial de este flujo de datos, pero también la política.

Velocidad: se refiere al Big Data bajo diferentes puntos de vista. En primer lugar, la velocidad con la que se generan los datos, en segundo lugar, la velocidad con la que las nuevas tecnologías permiten acceder a estos datos (aunque con arquitecturas distribuidas y estructuras de datos complejas) que a veces roza el acceso en tiempo real. La velocidad de acceso a los datos y a la información conduce a una mejora en la velocidad del proceso de toma de decisiones, uno de los elementos más críticos para mantener un alto nivel de competitividad en la actual situación del mercado. Consideremos, por ejemplo, la ‘monitorización’ del ‘sentiment’ de la opinión pública: una empresa podrá adoptar en un lapso muy breve las medidas correctivas o preventivas para reducir o prevenir un episodio de crisis.

Variedad: como ya se ha señalado, los datos por la mayoría no están estructurados y por lo tanto no se pueden abordar con las técnicas tradicionales de las bases de datos relacionales. En otras palabras, los datos ya no pueden ser colocados en tablas, porque se encuentran en forma no estructurada (correo electrónico, imágenes, audio, vídeo). Los algoritmos más avanzados tienen la capacidad de analizar datos no estructurados procedentes de diversas fuentes, con una precisión media de 93% – 97%.

El límite superior de procesamiento se ha ido desplazando a lo largo de los años, de esta forma los límites que estaban fijados en 2008 rondaban los órdenes de petabytes a zettabytes de datos. Los científicos con cierta regularidad encuentran limitaciones debido a la gran cantidad de datos en ciertas áreas, tales como la meteorología, la genómica, la conectómica, las complejas simulaciones de procesos físicos, y las investigaciones relacionadas con los procesos biológicos y ambientales, Las limitaciones también afectan a los motores de búsqueda en internet, a los sistemas finanzas y a la informática de negocios. Los data sets crecen en volumen debido en parte a la iducción de información ubicua procedente de los sensores inalámbricos y los dispositivos móviles (por ejemplo las VANETs), del constante crecimiento de los históricos de aplicaciones (por ejemplo de los logs), cámaras (sistemas de teledetección), micrófonos, lectores de radio-frequency identification. La capacidad tecnológica per-cápita a nivel mundial para almacenar datos se dobla aproximadamente cada cuarenta meses desde los años ochenta. Se estima que en 2012 cada día fueron creados cerca de 2,5 trillones de bytes de datos-

LAS FUENTES DE BIG DATA 

A pesar de que la explosión de la información digital sea un episodio bastante reciente, es conveniente tener en cuenta que al enorme volumen del Big Data también contribuyen una variedad de datos e información acumulados en el tiempo, a veces con fines completamente distintos del mero análisis. Las fuentes de origen del Big Data por lo tanto son diferentes, pero reconducibles a algunas principales macro-categorías:

Información people to machine: Se trata, hoy en día, de la fuente de la mayoría de los datos acumulados, originados incluso mucho antes de la formulación del concepto de Big Data. Se trata principalmente (especialmente para la información ya acumulada) de datos transaccionales, es decir, de datos asociados con una transacción (por ejemplo, la compra de un bien o servicio) y que fueron almacenados originalmente sólo para fines de contabilidad y no para propósitos analíticos. Sin embargo, este tipo y cantidad de información ha llamado la atención de las funciones de marketing de las empresas, que fueron las primeras en empezar a pensar en aprovechar estos datos para realizar el perfil de sus clientes y de su comportamiento, con el objetivo de componer una oferta cada vez más alineada a las necesidades del cliente.

LAS FUNCIONALIDADES PRINCIPALES SON:

Analítica basada en Hadoop: procesa y analiza cualquier tipo de datos en clústeres de servidores de comodidad.

Stream Computing: dirige análisis constantes de volúmenes masivos de datos continuos con tiempos de respuesta de milisegundos.

Almacenamiento de datos: ofrece conocimiento operativo con analíticas avanzadas de la base de datos.

Gobierno e integración de la información: le permite entender, depurar, transformar, gobernar y entregar información fiable para las iniciativas de negocio importantes.

SERVICIOS DE PLATAFORMAS DE SOPORTE 

Visualización y descubrimiento: permite a los usuarios finales explorar grandes conjuntos de datos complejos.

Desarrollo de aplicaciones: agiliza el proceso de desarrollar aplicaciones de grandes volúmenes de datos.

Gestión de sistemas: supervisa y gestiona sistemas de grandes volúmenes de datos para obtener un rendimiento seguro y optimizado.

Aceleradores: aceleran el tiempo de valor con módulos analíticos y específicos del sector.

VENTAJAS

Genera modelos productivos, permite relaciones no descubiertas e identificadas a través del data mining sean expresados como reglas del negocio modelos productivos.

Estos outputs pueden comunicarse en formas tradicionale-

Permite a los usuarios dar prioridad a decisiones y acciones mostrando factores que tienen un mayor objetivo.

Enormes bases de datos pueden ser analizadas.

DEl data mining describe información que no se esperaba conocer.

Los modelos son confiables y se construyen de manera rápida.

DESVENTAJAS

Dificultad de recopilación de datos.

Depende del tipo de datos que se quieren recopilar pueden conllevar mucho trabajo o la necesidad de tecnologia de elevado costo.

El procesamiento de datos puede llevar demasiado tiempo.

No esta asegurada la obtencion de un modelo valido.

EJEMPLOS

Big Data contra el crimen:

El análisis y cruce de datos de la actividad delictiva en Londres se utiliza para orientar la actuación de la policía antes de que estos se cometan, analizando las tendencias clave y poniendo mayor énfasis en vigila aquellas zonas de más riesgo. Por ejemplo, gracias a una aplicación con la que manejan los datos son capaces de saber con un 68% de probabilidad si en una zona concreta se van a producir más de 5 crímenes al mes.

Big Data para ofrecer ofertas personalizadas:

La empresa T-Mobile de telecomunicación redujo su número de portabilidades hasta un 50% analizando los datos de quejas y conversaciones en redes sociales de sus clientes, lo cual les llevó a conocer a cada cliente hasta el punto de asignarle a cada uno de ellos un valor en función de sus expectativas de negocio y permanencia. De esta manera se enviaban ofertas especiales para cada cliente con tal de ofrecerle lo que necesitara específicamente antes de abandonar la compañía.

Big Data para ayudar al cliente:

La empresa de comercios minoristas Wal-Mart ha incrementado la conversión de sus visitas en la web en un 10% desde la utilización de análisis semántico de texto en el buscador de su página. El entendimiento de los datos que da el cliente permite ofrecer resultados más relevantes que solucionan sus necesidades

Big data en la salud, la ciencia, el transporte

Los datos son esenciales en el sector de la salud para documentar enfermedades y los tratamientos recetados a los pacientes. Los archivos de imágenes médicas crecen entre 20 y 40% cada año, por lo que se espera que en 2015 un hospital medio generará 665 terabytes de datos médicos cada año. Las aplicaciones de análisis de big data en el mundo de la atención sanitaria son tan numerosas como multifacéticas, tanto en la investigación como en la práctica. Por ejemplo, los sistemas de supervisión a distancia de los pacientes que tienen enfermedades crónicas pueden limitar las citas con el médico, las visitas a urgencias y los días de hospitalización, mejorar la precisión de los cuidados e impedir determinadas complicaciones a largo plazo.

El análisis de grandes conjuntos de datos de características de pacientes, resultados de tratamientos y su coste puede ayudar a identificar los tratamientos más eficaces clínicamente y más eficaces respecto de los costes. Además, el análisis de patrones globales de enfermedades para identificar rápidamente tendencias es fundamental, no sólo para gestionar las crisis sanitarias públicas, sino también para que los sectores farmacéutico y médico puedan modelizar la demanda futura de sus productos para decidir inversiones en investigación y desarrollo.

El ejemplo por excelencia de los big data es el esfuerzo para resolver los misterios del universo. La Organización Europea para la Investigación Nuclear (CERN), situada a apenas unos minutos de automóvil de la Sede de la UIT, acoge uno de los mayores experimentos del mundo. Desde hace más de 50 años, el CERN analiza los torrentes crecientes de datos producidos por sus experimentos en los que se estudian partículas fundamentales y las fuerzas con las que interactúan. El Gran colisionador de hadrones (Large Hadron Collider, LHC) es un anillo de 27 km de circunferencia de imanes superconductores con varias estructuras aceleradoras que aumentan la energía de las partículas. El detector comprende 150 millones de sensores y actúa como una cámara 3D que toma 40 millones de imágenes por segundo de las colisiones de partículas. Para atender a la necesidad de almacenar, distribuir y analizar los casi 30 petabytes de datos producidos cada año, en 2002 se creó la Worldwide LHC Computing Grid, una red mundial distribuida de centros informáticos. Muchos datos del CERN no están estructurados y sólo indican que ha ocurrido algo. Científicos del mundo entero colaboran ahora para estructurar, reconstruir y analizar lo que ha ocurrido y por qué.

Los teléfonos móviles dejan rastros que se pueden aprovechar para modelizar los transportes. Es particularmente interesante cuando escasean otros datos sobre los transportes. Por ejemplo, para facilitar la planificación de los transportes y reducir las congestiones de tráfico en Abidjan (Côte d’Ivoire), el operador de telecomunicaciones Orange dio acceso a conjuntos de datos anónimos que contienen 2.500 millones de registros de llamadas locales y mensajes de texto intercambiados entre 5 millones de usuarios durante un periodo de 5 meses. De modo similar, Korea Telecom ayudó a la ciudad de Seúl a determinar los recorridos óptimos de los autobuses nocturnos, y la ciudad ha añadido siete trayectos nocturnos adicionales al plano original. La imagen siguiente es un análisis similar de datos de Swisscom correspondientes a Ginebra (Suiza).

A una escala geográfica más amplia, los datos de la telefonía móvil contribuyen al análisis de patrones de migración y son indispensables para gestionar gran crisis. La iniciativa Pulso Mundial lanzada por la Oficina Ejecutiva del Secretario General de las Naciones Unidas, responde a la necesidad de información más oportuna para seguir y supervisar las consecuencias de las crisis socioeconómicas mundiales y locales.

En el campo de las telecomunicaciones, el análisis de la red ayuda a los proveedores a optimizar sus activos de red de encaminamiento y predecir fallos y atascos antes de que causen daños. Datos precisos sobre la red y perfiles completos de los clientes, combinados en tiempo real, añaden valor, permiten ofrecer servicios personalizados que aumentan las oportunidades de ingresos, y atraen y retienen a los clientes. El análisis de la red también es un medio importante para detectar y atenuar los ataques por negación de servicio.

Normas

El Sector de Normalización de las Telecomunicaciones de la UIT (UIT–T) está estudiando actualmente necesidades particulares de infraestructura y tomando nota de los trabajos actuales sobre temas tales como redes ópticas de transporte y acceso, futuras capacidades de red (como conexiones en red definidas por software), multimedios y seguridad.

El UIT–T está estudiando la relación entre la computación en la nube y los big data en lo que hace a los requisitos y capacidades. En la Recomendación UIT–T X.1600, “Security framework for cloud computing”, se comparan amenazas para la seguridad con técnicas de mitigación, y se espera que la normalización futura de las técnicas de mitigación de amenazas descritas incorpore casos de utilización de big data. En un informe anterior de la Vigilancia Tecnológica se aboga por la utilización de técnicas que mejoran la seguridad, a fin de adoptar el principio de “privacidad por diseño” que, por supuesto, reviste gran interés para aplicaciones de big data.

La UIT, cuyos miembros son gobiernos, operadores de telecomunicaciones, fabricantes de equipos, instituciones académicas e institutos de investigación del mundo entero, se encuentra en una situación ideal para estudiar los métodos actuales de utilización de conjuntos de datos agregados y elaborar las correspondientes normas y políticas técnicas.

El movimiento de los datos abiertos está madurando en las economías emergentes y en los países industrializados. Dadas las dificultades de interoperabilidad y política que se deben afrontar, es el momento oportuno para que la UIT adopte y avance en la causa de los datos abiertos, en asociación con los numerosos campeones de los datos abiertos de dentro y fuera de la Unión. Desde el punto de vista de las normas, ello podría consistir en la elaboración de requisitos de información sobre datos, y mecanismos de publicación, distribución y descubrimiento de conjuntos de datos.

Todavía nos queda trabajo para comprender completamente el potencial de los big data, y la UIT debería seguir examinando los retos y oportunidades que representan los big data en el sector de las TIC.

big data Tres ejemplos para entender mejor el uso del Big Data

 

Presentación en prezi

http://prezi.com/djmfas2nsdna/cloud-computing-and-big-data/?utm_campaign=share&utm_medium=copy

Proyecto de investigación Tecnotic:

Contaminacion en el rio Melendez

Presentado por:

Johnnatan Leon Fernandez

Daniel Velasquez Lemos

https://prezi.com/wg5frxtraxkn/contaminacion-en-el-rio-melendez/

 

Manilla MGPS

Presentado por:

Juan David Saa Preciado

Danna Michel Valverde Caicedo

Juan Jose Mayorga Torres

https://prezi.com/wxuvu2e1pkly/manilla-global/

INSTITUCION UNIVERSITARIA ANTONIO JOSE CAMACHO
FACULTAD DE INGENIERIAS
TECNOLOGIA EN SISTEMAS DE INFORMACION

MANILLA MGSP
Presentado a:

Ing. CIRO ANTONIO DUSSAN
TABLA DE CONTENIDO
INTRODUCCION
OBJETIVO GENERAL
OBJETIVO ESPECIFICO
FORMULACION DEL PROBLEMA
MARCO TEORICO
METODO DE INVESTIGACION
POBLACION
PRUEBA PILOTO
FUENTES PRIMARIAS
FUENTES SECUENDARIAS
CONCLUSIONES

INTRODUCCION

Santiago de Cali capital del Valle del Cauca, es un lugar en el cual se desarrollan muchas manifestaciones de violencia, una de las causas puede ser que esta ciudad acoge a una gran población de desplazados de la zona del pacifico, los cuales se ubican en los barrios y comunas en donde se evidencia un alto grado de pobreza y violencia urbana, pandillas y pequeños comercios de drogas; todo esto contribuye a que se agudicen los problemas que ya existentes en la ciudad dadas las condiciones de vida, la falta de ocupaciones que genere ingresos económicos para sus necesidades básicas y una gran población juvenil que difícilmente pueda ir a estudiar con regularidad,, situaciones que posiblemente lleven a que esta población se integre a estas pandillas o grupos delincuenciales. La ciudad registra uno de los índices más altos de violencia en el país, en la cual esta violencia se concentra en 20 de las 22 comunas que tiene la ciudad.
Este proyecto se centra en la creación de una manilla que tiene incorporado un GPS (Sistema de Posicionamiento Global) para saber cuál fue la ubicación de una persona si es asaltada, secuestrada o asesinada para que las autoridades actúen frente al incidente y una base de datos en la cual se guarda información acerca de que tan peligroso es rondar por algunas calles de la cuidad, teniendo en cuenta las estadísticas de que tan peligrosos son algunos de los barrios, no con la intención de excluirlos sino como un modo de prevención para las personas que vienen a visitar nuestra ciudad ya sea de las ciudades de todo el país o personas de otras nacionalidades,

OBJETIVO GENERAL
Prevenir los robos y asesinatos en la ciudad.

OBJETOVOS ESPECIFICOS
Analizar qué tan frecuentes son los robos y asesinatos en la ciudad.
Darles una orientación a las personas sobre cuáles son las zonas más peligrosas de la ciudad.
Contribuir con las autoridades con la localización de personas secuestradas o desaparecidas que estén utilizando la MANILLA MGPS.
FORMULACION DEL PROBLEMA

‘¿Por qué hay tanta inseguridad en Cali?

La seguridad en la ciudad es un factor muy importante ya que con esto los ciudadanos podrían transitar con mayor tranquilidad por las calles de la ciudad; la inseguridad atenta contra los intereses de las Naciones, afecta tanto la inversión local como extranjera, nadie quiere invertir en ciudades violentas, el turismo se ve seriamente afectado también por este fenómeno, al ser esta ciudad un lugar muy peligroso tanto para las personas que viven en ella como para los que viene a visitarla no sería muy acogedora ni recomendada por estas personas que la visitaron, teniendo en cuenta que la inseguridad sería uno de los mayores factores para que esta ciudad sea excluida por los turistas. Este fenómeno afecta a la población caleña debido a que es un problema del estado que esta fuera de control y afecta la integridad física de las victimas.

MARCO TEORICO

Esta manilla es utilizada para prevenir los robos, asesinatos, secuestros, extravió de personas, esto ayudaría a que las autoridades puedan actuar rápidamente frente a estos acontecimientos o incidentes que suceden muy comúnmente en las comunas y barrios de la ciudad.
Mediante el análisis de datos que se recopilaran sobre cuáles son los lugares con un gran índice de robos y asesinatos que se dan en algunas calles de la cuidad, todo esto orientando a la comunidad sobre donde y cuando se pueden transitar y esta manilla estaría registrada en una base de datos de la policía nacional por un código único que esta va a tener.
Manilla: Aro que se lleva como adorno en el brazo por encima de la muñeca
GPS: permite determinar en todo el mundo la posición de un objeto, una persona o un vehículo con una precisión hasta de centímetros.
Comuna: Se entiende una subdivisión administrativa menor que corresponde a una zona urbana, rural, o mixta. Es equivalente al municipio o concejo u otras instancias de administración local.
Barrio: Cada una de las partes en que se dividen los pueblos grandes o sus distritos. Arrabal (sitio extremo).Caserío dependiente de otra población aunque esté apartado de ella.
Violencia: Es el tipo de interacción humana que se manifiesta en aquellas conductas o situaciones que, de forma deliberada, aprendida o imitada, provocan o amenazan con hacer daño o sometimiento grave (físico, sexual, verbal o psicológico) a un individuo o a una colectividad; o los afectan de tal manera que limitan sus potencialidades presentes o las futuras. Puede producirse a través de acciones y lenguajes, pero también de silencios e inacciones.

MÉTODO DE INVESTIGACIÓN
El método de investigación, es el procedimiento riguroso, formulado de una manera lógica, que el investigador debe seguir en la adquisición del conocimiento En este caso el método de investigación que se va a realizar es el método deductivo que permite dar la explicación de hechos y la situación actual de la inseguridad y la delincuencia en la ciudad de Santiago de Cali, proponiendo una solución a este problema con la aparición de esta “MANILLA MGSP” logrando que los ciudadanos y turistas puedan transitar por las calles de la ciudad, sabiendo que tienen en sus muñecas un dispositivo que los va a prevenir sobre cuáles son los lugares más peligrosos de la ciudad y si hay alguna desaparición las autoridades pueden ver cuál es la ubicación de la persona desaparecida mediante el GPS incorporado en la manilla. .

POBLACION
La población a la que va dirigido esta “MANILLA MGSP” es a todos los habitantes,turista,periodistas en Cali ya que en esta se vive una oleada de inseguridad y delincuencia que los afecta a todos, los cuales podrán adquirirla por la compra de un Smartphone o individualmente.

PRUEBA PILOTO
Las fuentes son los hechos o documentos que contienen datos útiles y le permiten al investigador obtener información. Por otro lado las técnicas son los medios por los cuales se recolecta información.
Las fuentes se dividen en primarias y secundarias en el proyecto de movilidad en Cali.

FUENTES PRIMARIAS
Observación, permite conocer la realidad de la inseguridad y la delincuencia en Cali.
Análisis de las situaciones causas y efectos la problemática de la inseguridad y delincuencia en Cali.

FUENTES SECUNDARIAS
Noticias en los periódicos de la ciudad.
Páginas de internet/Redes sociales.
Radio

CONCLUSIONES

Se concluye la que inseguridad es un factor que influye mucho en la vida cotidiana de las personas ya que cada que se sale a la calle no se sabe que le pueda ocurrir..

La delincuencia se ve más que todo en las nuevas generaciones por la falta de educación, de oportunidades laborales y de la presencia de las autoridades hacia estos sectores vulnerables de la cuidad.
Esta manilla será utilizada para la prevención de posibles robos, asesinatos que se den en diferentes calles de la cuidad y ayudaría a encontrar a las personas desaparecidas o posiblemente secuestrada o ubicar su recorrido.

El uso de este no solo puede ser para saber cuales son los lugares mas peligrosos de la ciudad, sino también para ubicar a mascotas extraviadas, adultos de la tercera edad y con enfermedades como el Alzheimer y otras que ayuden a que las personas se puedan extraviar.

Manilla

Evenntos sobre cloud y big data

Kumo cloud

iir colombia

Cloud expo europa

Strata conference

big data hispano

Muy cloud

Cloud world forum

Proyectos sobre cloud computing y big data

 Spal proyecto

CODE

Nueva yor utiliza big data para predecir incendios

Proyecto loderado por CIAT Para la accion climatica

Seminario

Grupos de investigacion

SISIUS GRUPO

Foro universidad de los andes

Caos de estudios

DIRCOM

Noticias

La vigilancia perfecta

Kloud Camp 2014

Colombia cloud en ecuador y centro america

LA SITUACIÓN DEL BIG DATA EN COLOMBIA

Bibliografia

Que es big data

Cloud computing and big data

Que es cloud

empresario en cloud

Big data

Encuesta

Encuesta

 

Anuncios

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s