Jump to content

Tabla de líderes

Contenido popular

Showing content with the highest reputation on 09/10/18 en todas las areas

  1. Katia Sastre fue premiada, condecorada y reconocida por su Gobierno y ahora elegida por el pueblo de Brasil como un ejemplo de actuación al detener a tiros un ladrón que sin importarle nada apunto su arma contra un grupo de madres que retiraban a sus hijos del colegio. Bien Por Katia, actualmente en las elecciones 2018 fué electa Diputada de Brasil para conformar una nueva etapa de gobierno que lucha en contra de la delincuencia dejando atrás las politicas del gobierno de izquierda tanto de Lula como de Dilma en donde al igual que Argentina, solo promovian los derechos de los ladrones, de los asesinos, de los traficantes y de los malvivientes de todo tipo. Esperemos que en Argentina crezca como pais, como sociedad y se encamine en algun momento hacia lo correcto, en donde policias como Chocobar nos defiendan son premiados y ascendidos por cumplir con su deber y que en vez de tener cada vez mas mujeres Feministas Abortistas de pañuelito verde tratando de imponer caprichos adolescentes como el lenguaje inclusivo, tengamos la suerte de encontrarnos con mas oficiales que hagan respetar la ley y nos den mas seguridad para poder salir, vivir, ir a trabajar y volver a tu casa sin miedo de estos asesinos falopeados y sin codigos te maten en la esquina de tu casa por 2 monedas... Felicitaciones Katia!
    2 puntos
  2. La Comisión Europea (CE) busca sus propias leyes robóticas, como ya hizo Isaac Asimov en sus libros. La CE ha reunido a 52 expertos con los que se ha creado el nuevo Grupo de Alto Nivel sobre Inteligencia Artificial que abordará los temas relacionados con la ética de las personalidades artificiales (robots e IA). De esta forma busca legislar al respecto, como tarde, para principios de 2020. "Se busca que las personalidades artificiales tengan algo así como una religión robótica, un código ético interno que se añade al crear el software para que tenga unos mínimos éticos", explica el jurista. Incluso en el ámbito armamentístico se buscan "cinco reglas básicas" que los desarrolladores deberán añadir "sí o sí" a sus personalidades artificiales. Al más puro estilo de la ciencia ficción. "No van a ser las de Asimov en sí" pero se busca algo similar. Tanto los robots como las inteligencias artificiales primero tienen que aprender para poder hacer su trabajo, es decir, lo que se denomina machine learning. "Por ejemplo, tienes comentarios en un sitio web y le dices estos son buenos y estos malos", explica a Hipertextual Jorge Morrell, jurista especializado en Derecho Tecnológico desde Términos y Condiciones. Y entonces aprende a catalogarlos según las pautas que tienen todos en común. “Es el ejemplo más fácil”, añade. "Pero cuando vas a cosas más complejas que afectan a personas, los datos que le das para entrenar están sesgados o son demasiado parciales en cuestiones raciales, de intereses, de pensamiento… Generas una IA que al final va a tomar decisiones tanto ética como legalmente complejas o que se salgan de la norma", explica. "El primer problema que hay para regular la IA y su vertiente ética es dónde has conseguido los datos con los que lo vas a entrenar y si el programador o la empresa se ha dado cuenta si hay algún sesgo en particular", señala. ¿Se están encontrando los programadores ya con problemas éticos? ¿Es realmente necesaria una ética para personalidades artificiales? La respuesta a ambas preguntas es que sí y hay numerosos ejemplos para que regular la ética de los robots y las IA sea necesario. En Estados Unidos están utilizando COMPAS, un programa que ayuda a los jueces a saber si la persona que puede quedar libre tienen probabilidades de volver a reincidir. Esta IA se basa en estadísticas de las últimas décadas y según la situación personal del individuo, tendrá más o menos posibilidades de volver a cometer un delito. “Este sistema se está teniendo bastante en cuenta en EEUU”, afirma el jurista. “Pero se han dado cuenta de que este sistema tiene un sesgo racista”, añade Morell. Es un ejemplo de por qué habría que regular a las personalidades artificiales para que no haya discriminación de ningún tipo. Otro ejemplo es el caso de la IA agresiva de Google. DeepMind es la IA en la que trabaja la empresa norteamericana y que ha sorprendido mientras jugaba a un simple juego de recolección de frutas. Fue programada para recolectar el máximo de frutas posibles. Sin embargo, "en época de escasez, se volvía agresiva y los programadores tuvieron que reprogramarla para que fuera colaborativa", explica Morell desde el otro lado del teléfono. [Hipertextual]
    1 punto
  3. Dias atrás me encontré con el video de un Robot Albañil, que hacia un monton de trabajos.. a la mierda todos, se le acabó el curro a los paraguayos. Es entendible lo de las leyes, no me imagino los cambios que llegaron en los próximos 20 o 30 años solamente y que vamos a ver antes de morirnos
    1 punto
×
×
  • Crear nuevo...