Data código del sitio web

Obtenga información sobre cómo incluir el rastreador de páginas y los códigos JavaScript incrustados en el código del sitio web para permitir que Adobe Analytics capture los datos de uso en torno a los recursos. El principal beneficio del uso de URI de datos es que puede reducir el número de solicitudes HTTP que su sitio necesita para cargar la página. Cada archivo individual al que se hace referencia en su código CSS o HTML creará una nueva solicitud HTTP. Estos VIs se encuentran en la paleta de funciones en Data Communications »DataSocket. Se deben seguir los pasos a continuación para leer el código fuente HTML completo de un sitio web específico. Una pequeña imagen de ejemplo del código completado se muestra debajo de los siguientes pasos. Opción B: FORMULARIO 960 N.M. Sirve para imprimir el formulario F960 o bien obtener el código (script) necesario para instalar el Código QR del Formulario 960 en tu sitio web. Si ya te aparece la opción B, seguí directamente con las instrucciones para opción B. Pasos a seguir con opción A: Solicitar la alta del formulario F960 MultiDATACL. Este repositorio contiene el código fuente completo del sitio web MultiDATA.CL, el cual utiliza las APIs de OpenDataCollector para obtener datos abiertos y desplegar los reportes.. Ponemos a disposición este código, para ser usado como un ejemplo de implementación de las APIs. Codigo Fuente Gratuito Que Data Del Sitio Web. 3/2/2018 0 Comments Cómo puedes buscar en el código fuente de tu sitio Web haciendo uso del módulo Optimizer. Los diferentes modos de búsqueda. Al examinar tu código fuente para ciertas frases, puedes averiguar si todo el contenido relevante (por ejemplo, las herramientas de seguimiento) se ha ...

Las 20 Mejores Herramientas de Web Scraping para Extracción de Datos

2020.07.22 11:57 melisaxinyue Las 20 Mejores Herramientas de Web Scraping para Extracción de Datos

Web Scraping (también conocido como extracción de datos de la web, web crawling) se ha aplicado ampliamente en muchos campos hoy en día. Antes de que una herramienta de web scraping llegue al público, es la palabra mágica para personas normales sin habilidades de programación. Su alto umbral sigue bloqueando a las personas fuera de Big Data. Una herramienta de web scraping es la tecnología de rastreo automatizada y cierra la brecha entre Big Data y cada persona.
¿Cuáles son los beneficios de usar una herramienta de web spider?
Aquí está el trato
Enumeré 20 MEJORES web scrapers para usted como referencia. ¡Bienvenido a aprovecharlo al máximo!
1. Octoparse
Octoparse es un free online spider para extraer casi todo tipo de datos que necesita en los sitios web. Puede usar Octoparse para extraer un sitio web con sus amplias funcionalidades y capacidades. Tiene dos tipos de modo de operación: Modo Asistente y Modo Avanzado, para que los que no son programadores puedan aprender rápidamente. La interfaz fácil de apuntar y hacer clic puede guiarlo a través de todo el proceso de extracción. Como resultado, puede extraer fácilmente el contenido del sitio web y guardarlo en formatos estructurados como EXCEL, TXT, HTML o sus bases de datos en un corto período de tiempo.
Además, proporciona una Programada Cloud Extracción que le permite extraer los datos dinámicos en tiempo real y mantener un registro de seguimiento de las actualizaciones del sitio web.
También puede extraer sitios web complejos con estructuras difíciles mediante el uso de su configuración incorporada de Regex y XPath para localizar elementos con precisión. Ya no tiene que preocuparse por el bloqueo de IP. Octoparse ofrece Servidores Proxy IP que automatizarán las IP y se irán sin ser detectados por sitios web agresivos.
Para concluir, Octoparse debería poder satisfacer las necesidades de rastreo de los usuarios, tanto básicas como avanzadas, sin ninguna habilidad de codificación.
2. Cyotek WebCopy
WebCopy es un website crawler gratuito que le permite copiar sitios parciales o completos localmente web en su disco duro para referencia sin conexión.
Puede cambiar su configuración para decirle al bot cómo desea rastrear. Además de eso, también puede configurar alias de dominio, cadenas de agente de usuario, documentos predeterminados y más.
Sin embargo, WebCopy no incluye un DOM virtual ni ninguna forma de análisis de JavaScript. Si un sitio web hace un uso intensivo de JavaScript para operar, es más probable que WebCopy no pueda hacer una copia verdadera. Es probable que no maneje correctamente los diseños dinámicos del sitio web debido al uso intensivo de JavaScript
3. HTTrack
Como programa gratuito de rastreo de sitios web, HTTrack proporciona funciones muy adecuadas para descargar un sitio web completo a su PC. Tiene versiones disponibles para Windows, Linux, Sun Solaris y otros sistemas Unix, que cubren a la mayoría de los usuarios. Es interesante que HTTrack pueda reflejar un sitio, o más de un sitio juntos (con enlaces compartidos). Puede decidir la cantidad de conexiones que se abrirán simultáneamente mientras descarga las páginas web en "establecer opciones". Puede obtener las fotos, los archivos, el código HTML de su sitio web duplicado y reanudar las descargas interrumpidas.
Además, el soporte de proxy está disponible dentro de HTTrack para maximizar la velocidad.
HTTrack funciona como un programa de línea de comandos, o para uso privado (captura) o profesional (espejo web en línea). Dicho esto, HTTrack debería ser preferido por personas con habilidades avanzadas de programación.
4. Getleft
Getleft es un capturador de sitios web gratuito y fácil de usar. Le permite descargar un sitio web completo o cualquier página web individual. Después de iniciar Getleft, puede ingresar una URL y elegir los archivos que desea descargar antes de que comience. Mientras avanza, cambia todos los enlaces para la navegación local. Además, ofrece soporte multilingüe. ¡Ahora Getleft admite 14 idiomas! Sin embargo, solo proporciona compatibilidad limitada con Ftp, descargará los archivos pero no de forma recursiva.
En general, Getleft debería poder satisfacer las necesidades básicas de scraping de los usuarios sin requerir habilidades más sofisticadas.
5. Scraper
Scraper es una extensión de Chrome con funciones de extracción de datos limitadas, pero es útil para realizar investigaciones en línea. También permite exportar los datos a las hojas de cálculo de Google. Puede copiar fácilmente los datos al portapapeles o almacenarlos en las hojas de cálculo con OAuth. Scraper puede generar XPaths automáticamente para definir URL para scraping. No ofrece servicios de scraping todo incluido, pero puede satisfacer las necesidades de extracción de datos de la mayoría de las personas.
6. OutWit Hub
OutWit Hub es un complemento de Firefox con docenas de funciones de extracción de datos para simplificar sus búsquedas en la web. Esta herramienta de web scraping puede navegar por las páginas y almacenar la información extraída en un formato adecuado.
OutWit Hub ofrece una interfaz única para extraer pequeñas o grandes cantidades de datos por necesidad. OutWit Hub le permite eliminar cualquier página web del navegador. Incluso puede crear agentes automáticos para extraer datos.
Es una de las herramientas de web scraping más simples, de uso gratuito y le ofrece la comodidad de extraer datos web sin escribir código.
7. ParseHub
Parsehub es un excelente web scraper que admite la recopilación de datos de sitios web que utilizan tecnología AJAX, JavaScript, cookies, etc. Su tecnología de aprendizaje automático puede leer, analizar y luego transformar documentos web en datos relevantes.
La aplicación de escritorio de Parsehub es compatible con sistemas como Windows, Mac OS X y Linux. Incluso puede usar la aplicación web que está incorporado en el navegador.
Como programa gratuito, no puede configurar más de cinco proyectos públicos en Parsehub. Los planes de suscripción pagados le permiten crear al menos 20 proyectos privados para scrape sitios web.
8. Visual Scraper
VisualScraper es otro gran web scraper gratuito y sin codificación con una interfaz simple de apuntar y hacer clic. Puede obtener datos en tiempo real de varias páginas web y exportar los datos extraídos como archivos CSV, XML, JSON o SQL. Además de SaaS, VisualScraper ofrece un servicio de web scraping como servicios de entrega de datos y creación de servicios de extracción de software.
Visual Scraper permite a los usuarios programar un proyecto para que se ejecute a una hora específica o repetir la secuencia cada minuto, día, semana, mes o año. Los usuarios pueden usarlo para extraer noticias, foros con frecuencia.
9. Scrapinghub
Scrapinghub es una Herramienta de Extracción de Datos basada Cloud que ayuda a miles de desarrolladores a obtener datos valiosos. Su herramienta de scraping visual de código abierto permite a los usuarios raspar sitios web sin ningún conocimiento de programación.
Scrapinghub utiliza Crawlera, un rotador de proxy inteligente que admite eludir las contramedidas de robots para rastrear fácilmente sitios enormes o protegidos por robot. Permite a los usuarios rastrear desde múltiples direcciones IP y ubicaciones sin la molestia de la administración de proxy a través de una simple API HTTP.
Scrapinghub convierte toda la página web en contenido organizado. Su equipo de expertos está disponible para obtener ayuda en caso de que su generador de rastreo no pueda cumplir con sus requisitos

10. Dexi.io
As a browser-based web crawler, Dexi.io allows you to scrape data based on your browser from any website and provide three types of robots for you to create a scraping task - Extractor, Crawler, and Pipes. The freeware provides anonymous web proxy servers for your web scraping and your extracted data will be hosted on Dexi.io’s servers for two weeks before the data is archived, or you can directly export the extracted data to JSON or CSV files. It offers paid services to meet your needs for getting real-time data.
Como web scraping basado en navegador, Dexi.io le permite scrape datos basados en su navegador desde cualquier sitio web y proporcionar tres tipos de robots para que pueda crear una tarea de scraping: extractor, rastreador y tuberías. El software gratuito proporciona servidores proxy web anónimos para su web scraping y sus datos extraídos se alojarán en los servidores de Dexi.io durante dos semanas antes de que se archiven los datos, o puede exportar directamente los datos extraídos a archivos JSON o CSV. Ofrece servicios pagos para satisfacer sus necesidades de obtener datos en tiempo real.
11. Webhose.io
Webhose.io permite a los usuarios obtener recursos en línea en un formato ordenado de todo el mundo y obtener datos en tiempo real de ellos. Este web crawler le permite rastrear datos y extraer palabras clave en muchos idiomas diferentes utilizando múltiples filtros que cubren una amplia gama de fuentes
Y puede guardar los datos raspados en formatos XML, JSON y RSS. Y los usuarios pueden acceder a los datos del historial desde su Archivo. Además, webhose.io admite como máximo 80 idiomas con sus resultados de crawling de datos. Y los usuarios pueden indexar y buscar fácilmente los datos estructurados rastreados por Webhose.io.
En general, Webhose.io podría satisfacer los requisitos de scraping elemental de los usuarios.
12. Import. io
Los usuarios pueden formar sus propios conjuntos de datos simplemente importando los datos de una página web en particular y exportando los datos a CSV.
Puede scrape fácilmente miles de páginas web en minutos sin escribir una sola línea de código y crear más de 1000 API en función de sus requisitos. Las API públicas han proporcionado capacidades potentes y flexibles, controle mediante programación Import.io para acceder automáticamente a los datos, Import.io ha facilitado el rastreo integrando datos web en su propia aplicación o sitio web con solo unos pocos clics.
Para satisfacer mejor los requisitos de rastreo de los usuarios, también ofrece una aplicación gratuita para Windows, Mac OS X y Linux para construir extractores y rastreadores de datos, descargar datos y sincronizarlos con la cuenta en línea. Además, los usuarios pueden programar tareas de rastreo semanalmente, diariamente o por hora.
13. 80legs
80legs es una poderosa herramienta de web crawling que se puede configurar según los requisitos personalizados. Admite la obtención de grandes cantidades de datos junto con la opción de descargar los datos extraídos al instante. 80legs proporciona un rastreo web de alto rendimiento que funciona rápidamente y obtiene los datos requeridos en solo segundos.
14. Spinn3r
Spinn3r le permite obtener datos completos de blogs, noticias y sitios de redes sociales y RSS y ATOM. Spinn3r se distribuye con un firehouse API que gestiona el 95% del trabajo de indexación. Ofrece protección avanzada contra spam, que elimina spam y los usos inapropiados del lenguaje, mejorando así la seguridad de los datos.
Spinn3r indexa contenido similar a Google y guarda los datos extraídos en archivos JSON. El web scraper escanea constantemente la web y encuentra actualizaciones de múltiples fuentes para obtener publicaciones en tiempo real. Su consola de administración le permite controlar los scraping y la búsqueda de texto completo permite realizar consultas complejas sobre datos sin procesar.
15. Content Grabber
Content Grabber es un software de web crawler dirigido a empresas. Le permite crear agentes de rastreo web independientes. Puede extraer contenido de casi cualquier sitio web y guardarlo como datos estructurados en el formato que elija, incluidos los informes de Excel, XML, CSV y la mayoría de las bases de datos.
Es más adecuado para personas con habilidades avanzadas de programación, ya queproporciona muchas potentes de edición de guiones y depuración de interfaz para aquellos que lo necesitan. Los usuarios pueden usar C # o VB.NET para depurar o escribir scripts para controlar la programación del proceso de scraping. Por ejemplo, Content Grabber puede integrarse con Visual Studio 2013 para la edición de secuencias de comandos, la depuración y la prueba de unidad más potentes para un rastreador personalizado avanzado y discreto basado en las necesidades particulares de los usuarios.
16. Helium Scraper
Helium Scraper es un software visual de datos web scraping que funciona bastante bien cuando la asociación entre elementos es pequeña. No es codificación, no es configuración. Y los usuarios pueden obtener acceso a plantillas en línea basadas en diversas necesidades de scraping.
Básicamente, podría satisfacer las necesidades de scraping de los usuarios dentro de un nivel elemental.
17. UiPath
UiPath es un software robótico de automatización de procesos para capturar automáticamente una web. Puede capturar automáticamente datos web y de escritorio de la mayoría de las aplicaciones de terceros. Si lo ejecuta en Windows, puede instalar el software de automatización de proceso. Uipath puede extraer tablas y datos basados en patrones en múltiples páginas web.
Uipath proporciona herramientas incorporados para un mayor web scraping. Este método es muy efectivo cuando se trata de interfaces de usuario complejas. Screen Scraping Tool puede manejar elementos de texto individuales, grupos de texto y bloques de texto, como la extracción de datos en formato de tabla.
Además, no se necesita programación para crear agentes web inteligentes, pero el .NET hacker dentro de usted tendrá un control completo sobre los datos.
18. Scrape.it
Scrape.it es un software node.js de web scraping . Es una herramienta de extracción de datos web basada en la nube. Está diseñado para aquellos con habilidades avanzadas de programación, ya que ofrece paquetes públicos y privados para descubrir, reutilizar, actualizar y compartir código con millones de desarrolladores en todo el mundo. Su potente integración lo ayudará a crear un rastreador personalizado según sus necesidades.
19. WebHarvy
WebHarvy es un software de web scraping de apuntar y hacer clic. Está diseñado para no programadores. WebHarvy puede scrape automáticamente Texto, Imágenes, URL y Correos Electrónicos de sitios web, y guardar el contenido raspado en varios formatos. También proporciona un programador incorporado y soporte proxy que permite el rastreo anónimo y evita que el software de web crawler sea bloqueado por servidores web, tiene la opción de acceder a sitios web objetivo a través de servidores proxy o VPN.
Los usuarios pueden guardar los datos extraídos de las páginas web en una variedad de formatos. La versión actual de WebHarvy Web Scraper le permite exportar los datos raspados como un archivo XML, CSV, JSON o TSV. Los usuarios también pueden exportar los datos raspados a una base de datos SQL.
20. Connotate
Connotate es un web scraper automatizado diseñado para la extracción de contenido web a escala empresarial que necesita una solución a escala empresarial. Los usuarios comerciales pueden crear fácilmente agentes de extracción en tan solo unos minutos, sin ninguna programación. Los usuarios pueden crear fácilmente agentes de extracción simplemente apuntando y haciendo clic.
submitted by melisaxinyue to webscraping [link] [comments]


2020.06.09 10:53 melisaxinyue 10 Malentendidos sobre El Web Scraping

1. El web scraping es ilegal
Muchas personas tienen falsas impresiones sobre el web scraping. Es porque hay personas que no respetan el gran trabajo en Internet y usan web scraping herramienta robando el contenido. El web scraping no es ilegal en sí mismo, sin embargo, el problema surge cuando las personas lo usan sin el permiso del propietario del sitio y sin tener en cuenta los Términos de Servicio (Términos de Servicio). Según el informe, el 2% de los ingresos en línea se pueden perder debido al mal uso del contenido a través del raspado web. Aunque el raspado web no tiene una ley clara y términos para abordar su aplicación, está abarcado por las regulaciones legales. Por ejemplo:
2. El web scraping y el web crawling son lo mismo
El web scraping implica la extracción de datos específicos en una página web específica, por ejemplo, extraer datos sobre clientes potenciales de ventas, listados de bienes inmuebles y precios de productos. Por el contrario, el web crawling es lo que hacen los motores de búsqueda. Escanea e indexa todo el sitio web junto con sus enlaces internos. "Crawler" puede navegar por la web sin un objetivo específico.
3. Puedes scrape cualquier sitio web
A menudo que las personas solicitan scraping cosas como direcciones de correo electrónico, publicaciones de Facebook o información de LinkedIn. Según un artículo titulado "¿Es legal el web scraping?" Es importante tener en cuenta las reglas antes de realizar el web scraping:
Una persona puede ser procesada bajo varias leyes. Por ejemplo, uno raspó cierta información confidencial y la vendió a un tercero, ignorando la carta de prohibición enviada por el propietario del sitio. Esta persona puede ser procesada bajo la ley de Trespass a Chattel, Violación de Digital Millennium Copyright Act (DMCA), Violación de la Ley de Computer Fraud and Abuse Act (CFAA) and Misappropriation
No significa que no pueda scrape canales de redes sociales como Twitter, Facebook, Instagram y YouTube. Son amigables con los servicios de scraping que siguen las disposiciones del archivo robots.txt. Para Facebook, debe obtener su permiso por escrito antes de realizar el comportamiento de la recopilación automatizada de datos.
4. Necesitas saber cómo codificar
Una herramienta de web scraping (herramienta de extracción de datos) es muy útil para profesionales no tecnológicos como especialistas en marketing, estadísticos, consultores financieros, inversores de bitcoin, investigadores, periodistas, etc. Octoparse lanzó una característica única: web scraping templates que scrapers preformateados que cubren más de 14 categorías en más de 30 sitios web, incluidos Facebook, Twitter, Amazon, eBay, Instagram y más. Todo lo que tiene que hacer es ingresar las palabras clave/URL en el parámetro sin ninguna configuración de tarea compleja. El web scraping con Python lleva mucho tiempo. Por otro lado, una plantilla de web scraping es eficiente y conveniente para capturar los datos que necesita.
5. Puede usar datos scraped para cualquier cosa
Es perfectamente legal si extrae datos de sitios web para consumo público y los utiliza para análisis. Sin embargo, no es legal si scrape información confidencial con fines de lucro. Por ejemplo, scraping información de contacto privada sin permiso y venderla a un tercero para obtener ganancias es ilegal. Además, reempaquetar contenido raspado como propio sin citar la fuente tampoco es ético. Debe seguir de reglas sobre no enviar spam o cualquier uso fraudulento de datos está prohibido de acuerdo con la ley.
6. Un web scraper es versátil
Tal vez ha experimentado sitios web particulares que cambian su diseño o estructura de vez en cuando. No se frustre cuando se encuentre con sitios web que su scraper no puede leer por segunda vez. Hay muchas razones. No se activa necesariamente al identificarte como un bot sospechoso. También puede ser causado por diferentes ubicaciones geográficas o acceso de la máquina. En estos casos, es normal que un web scraper no pueda analizar el sitio web antes de establecer el ajuste.
7. Puedes scraping web a alta velocidad
Es posible que haya visto anuncios de scraper que dicen cuán rápidos son sus scrapers. Suena bien ya que le dicen que pueden recopilar datos en segundos. Sin embargo, si causas daños a la empresa, serás un delincuente y será procesado. Esto se debe a que una solicitud de datos escalables a una velocidad rápida sobrecargará un servidor web, lo que podría provocar un bloqueo del servidor. En este caso, la persona es responsable por el daño bajo la ley de "trespass to chattels" (Dryer y Stockton 2013). Si no está seguro de si el sitio web es scrapable o no, pregúntele al proveedor de servicios de desguace web. Octoparse es un proveedor de servicios de raspado web responsable que coloca la satisfacción de los clientes en primer lugar. Para Octoparse es crucial ayudar a nuestros clientes a resolver el problema y tener éxito.
8. API y Web scraping son lo mismo
API es como un canal para enviar su solicitud de datos a un servidor web y obtener los datos deseados. API devolverá los datos en formato JSON a través del protocolo HTTP. Por ejemplo, Facebook API, Twitter API, y Instagram API. Sin embargo, no significa que pueda obtener los datos que solicite. El web scraping puede visualizar el proceso ya que le permite interactuar con los sitios web. Octoparse tiene plantillas de web scraping. Es aún más conveniente para los profesionales no tecnológicos extraer datos al completar los parámetros con palabras clave/URL.
9. The scraped data only works for our business after being cleaned and analyzed
Many data integration platforms can help visualize and analyze the data. In comparison, it looks like data scraping doesn’t have a direct impact on business decision making. Web scraping indeed extracts raw data of the webpage that needs to be processed to gain insights like sentiment analysis. However, some raw data can be extremely valuable in the hands of gold miners.
9. Los scraped data solo funcionan para nuestro negocio después de ser limpiados y analizados
Muchas plataformas de integración de datos pueden ayudar a visualizar y analizar los datos. En comparación, parece que el scraping de datos no tiene un impacto directo en la toma de decisiones comerciales. De hecho, el web scraping extrae datos sin procesar de la página web que deben procesarse para obtener información como el análisis de sentimientos. Sin embargo, algunos datos en bruto pueden ser extremadamente valiosos en manos de los mineros de oro.
Con la plantilla de web scraping de Octoparse Google Search para buscar un resultado de búsqueda orgánica, puede extraer información, incluidos los títulos y meta descripciones sobre sus competidores para determinar sus estrategias de SEO; Para las industrias minoristas, el web scraping se puede usar para controlar los precios y la distribución de los productos. Por ejemplo, Amazon puede crawl Flipkart y Walmart en el catálogo "Electrónico" para evaluar el rendimiento de los artículos electrónicos.
10. El web scraping solo puede usarse en negocios
El web scraping se usa ampliamente en varios campos además de la generación de leads, el monitoreo de precios, el seguimiento de precios y el análisis de mercado para empresas. Los estudiantes también pueden aprovechar una plantilla de web scraping de Google Académico para realizar investigaciones de tesis. Los agentes inmobiliarios pueden realizar investigaciones de vivienda y predecir el mercado inmobiliario. Podrá encontrar personas influyentes de Youtube o Twitter para promocionar su marca o su propia agregación de noticias que cubra los únicos temas que desea al scraping los medios de comunicación y los RSS feeds.
submitted by melisaxinyue to webscraping [link] [comments]


2020.06.09 10:46 melisaxinyue Web Scraping: Cómo Comenzó y Qué Sucederá en El Futuro

¿Qué es el web scraping?
El web scraping, también conocido como web harvesting y extracción de datos web, se refiere básicamente a la recopilación de datos de sitios web a través del Hypertext Transfer Protocol (HTTP) o mediante navegadores web.
Tabla de contenidos
¿Cómo funciona el web scraping?
En general, el web scraping implica tres pasos:
https://preview.redd.it/mo1ex5nfku351.png?width=666&format=png&auto=webp&s=508ca7d3f262f17509bc8f768e3201ca5653baa6
¿Cómo comenzó todo?
Aunque para muchas personas, suena como una técnica tan fresca como conceptos como "Big Data" o "machine learning", la historia del web scraping es en realidad mucho más larga. Se remonta a la época en que nació la World Wide Web, o coloquialmente "Internet"
Al principio, Internet era incluso inescrutable. Antes de que se desarrollaran los motores de búsqueda, Internet era solo una colección de sitios de File Transfer Protocol (FTP) en los que los usuarios navegaban para encontrar archivos compartidos específicos. Para encontrar y organizar los datos distribuidos disponibles en Internet, las personas crearon un programa automatizado específico, conocido hoy como el web crawlebot, para buscar todas las páginas en Internet y luego copiar todo el contenido en las bases de datos para su indexación.
Luego, Internet crece y se convierte en el hogar de millones de páginas web que contienen una gran cantidad de datos en múltiples formas, incluidos textos, imágenes, videos y audios. Se convierte en una fuente de datos abierta.
A medida que la fuente de datos se hizo increíblemente rica y fácil de buscar, la gente comienzan a descubrir que la información requerida se puede encontrar fácilmente. Esta información generalmente se encuentra dispersa en muchos sitios web, pero el problema es que cuando desean obtener datos de Internet, no todos los sitios web ofrecen la opción de descargar datos. Copiar y pegar es muy engorroso e ineficiente.
Y ahí es donde entró el web scraping. El web scraping en realidad está impulsado por web bots/crawlers, y sus funciones son las mismas que las utilizadas en los motores de búsqueda. Es decir, buscar y copiar. La única diferencia podría ser la escala. El web scraping se centra en extraer solo datos específicos de ciertos sitios web, mientras que los motores de búsqueda a menudo obtienen la mayoría de los sitios web en Internet.

- ¿Cómo se hace el web scraping?

Técnicamente, la World Wide Web es diferente de Internet. El primero se refiere al espacio de información, mientras que el segundo es la network compuesta por computadoras.
Gracias a Tim Berners-Lee, el inventor de WWW, trajo las siguientes 3 cosas que han sido parte de nuestra vida diaria:
También inventado por Tim Berners-Lee, se llamaba WorldWideWeb (sin espacios), llamado así por el proyecto WWW. Un año después de la aparición de la web, las personas tenían una forma de verla e interactuar con ella.
La web siguió creciendo a una velocidad bastante moderada. Para 1994, el número de servidores HTTP era superior a 200.
Aunque funcionó de la misma manera que lo hacen los robots web hoy en día, solo tenía la intención de medir el tamaño de la web.
Como no había tantos sitios web disponibles en la web, los motores de búsqueda en ese momento solían depender de los administradores de sus sitios web humanos para recopilar y editar los enlaces en un formato particular.
JumpStation trajo un nuevo salto. Es el primer motor de búsqueda WWW que se basa en un robot web.
Desde entonces, la gente comenzó a usar estos web crawlers programáticos para recolectar y organizar Internet. Desde Infoseek, Altavista y Excite, hasta Bing y Google hoy, el núcleo de un robot de motor de búsqueda sigue siendo el mismo:
Como las páginas web están diseñadas para usuarios humanos, y no para la facilidad de uso automatizado, incluso con el desarrollo del bot web, todavía fue difícil para los ingenieros informáticos y los científicos hacer scraping web, y mucho menos personas normales. Por lo tanto, la gente se ha dedicado a hacer que el web scraping esté más disponible.
API significa Interfaz de Programación de Aplicaciones. Es una interfaz que facilita mucho el desarrollo de un programa al proporcionar los bloques de construcción.
En 2000, Salesforce y eBay lanzaron su propia API, con la cual los programadores pudieron acceder y descargar algunos de los datos disponibles al público.
Con comandos simples, Beautiful Soup tiene sentido de la estructura del sitio y ayuda a analizar el contenido desde el contenedor HTML. Se considera la biblioteca más sofisticada y avanzada para el raspado web, y también uno de los enfoques más comunes y populares en la actualidad.
En 2006, Stefan Andresen y su Kapow Software (adquirido por Kofax en 2013) lanzaron la Web Integration Platform version 6.0, algo que ahora se entiende como software visual de web scraping, que permite a los usuarios simplemente resaltar el contenido de una página web y estructurar esos datos en un excel file utilizable o database
Finalmente, hay una manera para que los masivos no programadores hagan web scraping por su cuenta.
Desde entonces, el web scraping está comenzando a llegar a la corriente principal. Ahora, para los no programadores, pueden encontrar fácilmente más de 80 programas de extracción de datos listos para usar que proporcionan procesos visuales.
¿Cómo será el web scraping?
Las crecientes demandas de datos web por parte de las empresas en toda la industria prosperan en el mercado de web scraping, y eso trae nuevos empleos y oportunidades comerciales.
Es una época que es más fácil que cualquier otra que hayamos tenido en la historia. Cualquier persona, empresa u organización puede obtener los datos que desee, siempre que estén disponibles en la web. Gracias al web crawlebot, API, bibliotecas estándar y varios softwares listos para usar, una vez que alguien tiene la voluntad de obtener datos, hay una manera para ellos. O también pueden recurrir a profesionales accesibles y asequibles.
haya Internet, habrá web scraping.
Una forma de evitar las posibles consecuencias legales del web scraping es consultar a los proveedores profesionales de servicios de web scraping. Octoparse se erige como la mejor compañía de web scraping que ofrece scraping servicios y una herramienta de extracción de datos web. Tanto los empresarios individuales como las grandes empresas cosecharán los beneficios de su avanzada tecnología de scraping.
submitted by melisaxinyue to webscraping [link] [comments]


2020.05.21 11:04 melisaxinyue 3 Web Scraping Aplicaciones para Ganar Dinero

3 Web Scraping Aplicaciones para Ganar Dinero
¿Puedes creer que el 70% del tráfico de Internet fue creado por arañas *? ¡Es sorprendentemente cierto! Hay muchas arañas, web crawlers o buscadores de robots ocupados con sus trabajos en Internet. Simulan el comportamiento humano, recorren sitios web, hacen clic botones, comprobación de datos y recuperación de información.

https://preview.redd.it/ms772nqh23051.png?width=550&format=png&auto=webp&s=ff7073223bc3d340bbd7b5be3daf0886d56204a6
Picture from Google
Con tanto tráfico generado, deben haber logrado algo magnífico. Algunos de ellos pueden sonarle familiares, como el monitoreo de precios en negocios de comercio electrónico, el monitoreo de redes sociales en relaciones públicas o la adquisición de datos de investigación para estudios académicos. Aquí, nos gustaría profundizar en las 3 aplicaciones de raspado web que rara vez se conocen pero que son sorprendentemente rentables.
1. Transportation
Las plataformas Budget Airline son muy populares entre los web scrapers debido a la promoción impredecible de boletos baratos.
La intención original de Airline’s es ofrecer boletos baratos al azar para atraer turistas*, pero los revendedores encontraron una manera de obtener ganancias de esto. Los geek scalper usan web crawlers para actualizar continuamente el sitio web de la aerolínea. Una vez que haya un boleto barato disponible, el crawler lo reservará boletos.

https://preview.redd.it/ohvxqkfl23051.png?width=251&format=png&auto=webp&s=bcac2bc2ee9752a9a6ad0ebceeaeeb98cc557faf
Imagen de Giphy
AirAsia, por ejemplo, solo mantiene la reserva durante una hora y si el pago no se realiza para entonces, el boleto se envía de vuelta al grupo de boletos y está listo para vender. Los revendedores volverán a comprar el boleto en el milisegundo después de que el boleto regrese a la piscina, y así sucesivamente. Solo hasta que solicite el boleto a un revendedor, los revendedores utilizarán el programa para abandonar el boleto en el sistema AirAsia y en 0.00001 segundos después, lo reservarán con su nombre.
No me parece un trabajo fácil. Tal vez la comisión de agencia intermedia es bastante justa.
2. E-Commerce
Debe haber muchos sitios de comparación de precios y Sitio web de devolución de efectivo en los favoritos de un comprador inteligente. No importa cuáles sean sus nombres, "plataformas de comparación de precios", "sitio web agregado de comercio electrónico" o "sitios web de cupones", las ideas son las mismas: ganar dinero ahorrando su dinero.

Scraping los precios y las imágenes de los websites de comercio electrónico y los muestran en sus propios sitios web.
Los magnates del comercio electrónico como Amazon saben que es difícil revertir las tendencias del código abierto *. Entonces comienzan un negocio para vender su API con una larga lista de precios. ¡Parece que los sitios web de comparación de precios necesitan hacer todos los trabajos, escribir códigos para scrape, proporcionar un canal de ventas y pagar las facturas!
https://preview.redd.it/dsh8yo6n23051.png?width=377&format=png&auto=webp&s=1efdff23b184fe5cbef21c6a0f931eaf5d23ab26
Imagen de Giphy

No tan rapido. Déjame decirte cómo estas plataformas de comercio electrónico agregadas obtienen sus ganancias:
  • Supongamos que hay una plataforma que agrega varias tiendas que venden Okamoto. Cuando las personas buscan el producto, pueden decidir qué tienda ocupa el primer lugar y cuál es el último. En resumen, la tienda que paga más dinero a la plataforma se clasifica en la parte superior.
https://preview.redd.it/2y13tioo23051.png?width=756&format=png&auto=webp&s=cbe6c6a02aef01df6cd55dbac64ade135a434919
Imagen de Comparee
  • Si el precio de oferta de clasificación es tan dolorosa (@Google AdWords), también puede tomar la salida fácil: comprar anuncios en la página web. Cada vez que un visitante hace clic su tienda en línera, el sitio web gana dinero - por cobrar por los clics.
  • El sitio web también puede actuar como agente para ganar comisiones. Es bastante fácil de entender, ya que ayudan a las tiendas a vender productos. Basado en la creencia de "cuanto más, mejor", allí tenemos sitios web de devolución de efectivo que nacen.
En resumen, lo están haciendo bastante bien.
3. Seguridad social
Para dos compañías que aceptan compartir bases de datos a través de API, aún podrían necesitar el raspado web para convertir los datos de las páginas web en informes de datos estructurales.
Tomemos los tres grandes como ejemplo. Equifax, Experian y TransUnion, que poseen los archivos de crédito de 170 millones de adultos estadounidenses y venden más de 600 millones de informes de crédito cada año, generando más de $ 10 mil millones en ingresos*.
https://preview.redd.it/e4aiktsp23051.png?width=400&format=png&auto=webp&s=e555a57483f2a44e35f7579fa98e5b55d5218856
Imagen de Giphy
"En realidad, es un modelo de negocio bastante simple. Recopilan la mayor cantidad de información sobre usted de los prestamistas, la agregan y se la devuelven", dijo Brett Horn, analista de la industria de Morningstar *.
Reciben sus datos de comportamiento personal de sus bancos, empleadores, tribunales locales, centros comerciales e incluso una estación de servicio. Con tantos informes para analizar, el web-scraping es una gran ayuda para organizar los datos. Pueden convertir las páginas web en informes de datos estructurales.
Hay muchas formas de scrape desde los sitios web. Si desea scrape datos a escala de muchos sitios web, una herramienta de raspado web es útil. Aquí hay una lista de las 10 mejores herramientas de web scraping como preferencia.
Web scraping is an incredible way to collect data for your business. If you are looking for a reliable web scraping service to scrape data from the web, you can try to start it with Octoparse.
submitted by melisaxinyue to webscraping [link] [comments]


2020.05.01 10:57 kong-dao COVID-19: GDPR Violado

La pandemia abrazó al mundo en un aspecto sanitario y tecnológico, las distopias de Aldous Huxley o George Orwell (entre otros) aparecieron para quedarse, la realidad siempre supera la ficción, oculta desde la sombra miraba todo, lista para arrimarse cuando quisiera.
Con la idea de mezclar ambas partes, ciencia y tecnología, las empresas no tardaron en hacer una sinfonía orquestada que aturde a usuarios con el bombarde de información por medio de la televisión, radio, prensa o internet, que además utiliza como herramientas de control sin su conscentimiento, la excusa: COVID-19. No ahondaré en países donde la vigilancia rompe con todas las "libertades civiles" como China, Rusia, Corea del Norte, Corea del Sur, Estados Unidos, Australia, Canada, Nueva Zelanda, Japón, Israel, Iran y más, pero sí donde los políticos se regocijan y vanaglorian de las leyes aprobadas: Europa.
La "fiebre tecnológica" saltó al mundo cuando la OMS declaró la pandemia, miles de empresas de hardware y software especializadas en mediciones térmicas empezaron a frotarse las manos para "predecir" los síntimas del virus: fiebre, fatiga, pérdida del apetito y el olfato, tos, dolor muscular (efecto secundario de la fiebre), son los más "comunes" Resulta dificil atribuir a un virus síntomas tan generales, pero no tanto gracias a la tecnología que se instalará en aeropuertos, aviones, edificios públicos y privados (compañías) y no es casualidad que el "mercado térmico" haya saltado como nunca antes con un valor estimado de €65 Billones según Telegraph
Recientemente Google y Apple se asociaron para "ayudar" con su aporte tecnológico, crearon una API (Programa de Aplicación con Interfaz - Application Programming Interface) hoy conocida como "app", que estará en los sistemas operativos Android e iOS a partir de las proximas actualizaciones de software. La aplicación utilizará el sistema de Bluethooth para identificar, gracias al GPS, cerca de quien estuvo, cuándo y dónde, hará "tests" de COVID-19 que si da positivo se enviará a las autoridades y luego se enviarán una alerta de forma anónima a la persona que estuvo en contacto con el "infectado". Ante esta iniciativa del sector privado, los gobiernos de Francia y Alemania levantaron la mano para pedir acceso a los códigos, mientras ellos desarrollan sus propias APIs con la ayuda de los institutos Inria (Francia) y Fraunhofer (Alemania) ambos miembros del proyecto PEPP-PT (Pan-European Privacy-Preserving Proximity Tracing) los que según la documentación oficial subida a Github (compañía adquirida en 2018 por Microsoft en U$7.5 Billones) no muestra el código fuente, solamente se ven unos cuantos pdf además de las 43 incidencias entre las que se relacionan los problemas de privacidad y seguridad que ofrece la "app", cuyo último documento fue subido por el primer instituto fechada el 30 de Abril de 2020 diciendo respetar las normas mínimas del GDPR (¿Qué dice el GDPR? Lo aclaro debajo) La pregunta sería ¿cómo la API puede descartar los falsos-positivos? Aún no está claro. Lo que si está claro es que el mismo documento oficial aclara que el impacto será la Vigilancia Masiva, los informes son precarios con respecto a la información técnica sobre la tegnología que utilizarán y si la app será centralizada o descentralizada, es decir de código abierto (open-source) o código cerrado (al que acceden solamente los "dueños") que de momento sería el último caso. Este plan o proyecto "pan-europeo",comenta Thomson Reuters, fue apoyado por las más grandes empresas de telecomunicaciones de Europa entre las que se encuentran: Vodafone, Deutsche Telekom, Orange, Telefonica, Telecom Italia , Telenor, Telia y Telekom donde la primer ministra alemana Angela Merkel apoyó de forma rotunda tras bloquear las acciones de Trump para comprar vacunas a CureVac (farmaceutica alemana subvencionada por la Fundación Bill & Melinda Gates) Desde el mes de Abril los países que comenzar con el plan fueron: España, Italia, Noruega, Belgica, Inglaterra, Portugal y Grecia.
La página oficial de la empresa española Telefónica muestra de forma orgullosa su historia colaborativa con Facebook, además de asociarse con Google y el gobierno español para desarrollar una "app" local y combatir el COVID, empresas que la Comunidad Europea estaba bloqueando por considerarlas "comeptencia".
Vodafone tiene actualmente trabajando a investigadores pagados por la Fundación Bill & Melinda Gates para luchar contra la pandemia, una con la que tienen relación hace más de 10 años según la web oficial de la institución. (Esta fundación ya fue expuesta en otro articulo sobre su intención de reducir la población mundial y cómo se relaciona con la infame OMS)
GDPR
En 2016 la Comunidad Europea aprobó la Regulación de Protección General de Datos (siglas en inglés: GDPR) aplicada (tardíamente) en 2018 para trabaja a la par es el Comité Europeo de Protección de Datos (EDPB por sus siglas en inglés) Esta última, dirigada por la abogada Andrea Jelinek, hizo publico un breve comunicado de 3 páginas en la web oficial el día 19 de Marzo de 2020, en la 1er pág. cita:
Emergency is a legal condition which may legitimise restrictions of freedoms provided these restrictions are proportionate and limited to the emergency period. (La emergencia es una condición legal que puede legitimar las restricciones de las libertades\, siempre que estas restricciones sean proporcionadas y limitadas al período de emergencia)*
*[La palabra legitimar deriva de legítimo, es decir, legal, lícito o permitido, lease "es permitido restringir las libertades"] Condición anti-ćonstitucional de los "derechos humanos" que rechaza de pleno el Articuloº13 sobre la libre circulación.
El 20 de Abril, una publicación de Bloomberg declara:
We know that cellphone contact tracing is effective, though, in part through documents made public by the former U.S. intelligence contractor Edward Snowden describing how the National Security Agency gained access to global location data by tapping into mobile network cables. Intelligence agencies used this data to uncover hidden associations of known targets based on intersecting movements. (Sin embargo, sabemos que el rastreo de contactos de teléfonos celulares es efectivo, en parte a través de documentos hechos públicos por el ex contratista de inteligencia de los Estados Unidos, Edward Snowden, que describen cómo la Agencia de Seguridad Nacional obtuvo acceso a datos de ubicación global al conectarse a cables de redes móviles. Las agencias de inteligencia utilizaron estos datos para descubrir asociaciones ocultas de objetivos conocidos basados en movimientos de intersección.)
Recientemente el navegador Brave que apunta a la privacidad de los usuarios (pero no más que el open-source Firefox) denunció a la comunidad Europea por violar las políticas de GDPR con respecto a los usuarios, alegando que los gobiernos están fallando en respetar las políticas que ellos mismos crearon para proteger a los usuarios.
El periódico inglés Daily Mailpublicó un articulo titulado: "Cuando las pandemias golpean, el libro de reglas sale volando por la ventana": Expertos advierten que el rastreo de smartphones para encontra el coronavirus puede pavimentar un gran camino a la vigilancia masiva
Otro medio que levantó la alarma fue Politico con el titular: La privacidad amenazada en Occidente por combatir el virus
Está claro que gracias a la tecnología GPS se puede hacer un seguimiento bastante preciso, se puede saber dónde vive, dónde trabaja, con quien se junta (por proximidad entre los móviles que transmiten beams o beacons) y dónde, con qué frecuencia visita x lugares, los sitios turisticos o de consumo que frecuenta, información obviamente detallada por una cronología que indica en qué hora, min y seg, si se estuvo moviendo o estuvo quieto. Un instrumento más del hoy llamado Big Data
Las más grandes tecnologías, medios de comunicación, y gobiernos están haciendo de "reguladores de información" contra las "fake news", unas falsas noticias que ellos mismos crean para generar confusión y desinformación en la sociedad actual, así es más fácil de dirigir a las masas hacia un futuro sin libertad de expresión, sin libre-pensamiento, sin democracia, es decir, sin libertad(es) y que además viola los derechos humanos, y las leyes que los mismos gobiernos crearon.
La tecnología es una poderosísima herramienta, saber usarla está en sus manos, ignorarla es dejar que otros la usen en su nombre para hacer bien o para hacer mal, algo que usted nunca sabrá.
---------------------
Anexos:
Población de Europa (2020) - Fuentes:
World Population ReviewPopulation PiramidWorld Meters
submitted by kong-dao to DeepMinds [link] [comments]


2020.02.10 09:40 melisaxinyue Los 5 Mejores Rastreadores Web (crawlers) de Redes Sociales para 2020

Los 5 Mejores Rastreadores Web (crawlers) de Redes Sociales para 2020

Los 5 mejores rastreadors de redes sociales en el mercado

1. Octoparse


https://preview.redd.it/fmkbjh6y52g41.png?width=1799&format=png&auto=webp&s=cf3f9430a9edd4ec011c5e8a109a1fc5f3cdf365
Como una de las mejores herramientas automáticas gratuitas de raspado de páginas web en el mercado, Octoparse se desarrolló para los no codificadores a fin de acomodar los complicados trabajos de scrape de páginas web.
La versión actual 7 proporciona una interfaz intuitiva de hacer clic y admite el manejo de desplazamiento infinito, autenticación de inicio de sesión, entrada de texto (para scrape resultados de búsqueda), así como la selección de menús desplegables. Los datos raspado se pueden exportar como Excel, JSON, HTML o a bases de datos. Si desea crear un raspador dinámico para exraer datos de sitios web dinámicos en tiempo real, Octoparse Cloud Extraction (plan pagado) funciona bien para obtener fuentes de datos dinámicos, ya que admite el programa de extracción tan frecuente como cada 1 minuto.
Para extraer datos de redes sociales, Octoparse ya publicó muchos tutoriales elaborados, como scraping tweets de Twitter y extraer publicaciones de Instagram. Además, Octoparse ofrece un servicio de recopilación de datos que entrega los datos directamente a su biblioteca de S3. Si tiene poco tiempo, puede ser una buena alternativa a considerar.

  1. Dexi.io
https://preview.redd.it/hee1ef8362g41.png?width=1820&format=png&auto=webp&s=ed0f5f647fc4bc101aa995c16d6d54f3b44eb878
Como una aplicación basada en la web, Dexi.io es otra herramienta intuitiva de automatización de extracción para fines comerciales con un precio inicial de $ 119/mes. Dexi.io admite la creación de tres tipos de robots: extractor, crawler, Pipes.
Dexi.io requiere algunas habilidades de programación para dominar, Pero puede integrar servicios de terceros para resolver el problema del captcha, almacenamiento en la nube, análisis de texto (integración del servicio MonkeyLearn) e incluso con AWS, Google Drive, Google Sheets ...
El Plugin (plan pagado) también es una característica revolucionaria de Dexi.io y la cantidad de Plugin sigue creciendo. A través de Plugin, puede desbloquear más funciones disponibles en Extractor y Pipes.

3. OutWit Hub

https://preview.redd.it/iskwkyn462g41.png?width=1868&format=png&auto=webp&s=674f5ec8d490e4e6a0942ee205040599553f88ac
A diferencia de Octoparse y Dexi.io, Outwit Hub ofrece una interfaz gráfica de usuario simplista, así como funciones sofisticadas de raspado y reconocimiento de estructura de datos. Outwit Hub comenzó como un plugin de Firefox y más tarde se convirtió en una aplicación descargable.
Sin necesidad de conocimientos previos de programación, OutWit Hub puede extraer y exportar enlaces, direcciones de correo electrónico, noticias RSS y tablas de datos a bases de datos Excel, CSV, HTML o SQL.
Outwit Hub tiene características sobresalientes de "Fast Scrape", que borra rápidamente los datos de una lista de URL que ingresas. Sin embargo, para los principiantes,es posible que deba leer algunos tutoriales básicos y documentación debido a la falta de aplicaciones de hace-clic-interface.

4. Scrapinghub

https://preview.redd.it/wddx31v562g41.png?width=1678&format=png&auto=webp&s=e56d43b3d172a0d6a2118ab13addd938c9a8e873
Scrapinghub es una plataforma de web scraping basada en la nube que le permite escalar sus rastreadores y ofrece un descargador inteligente para evitar contramedidas de bot, servicios de web scraping llave en mano y conjuntos de datos listos para usar.
La aplicación consta de 4 excelentes herramientas: Scrapy Cloud para implementar y ejecutar rastreadores web basados en Python; Portia es un software de código abierto para extraer datos sin codificación; Splash también es una herramienta de representación de JavaScript de código abierto para extraer datos de páginas web que usan JavaScript; Crawlera es una herramienta para evitar ser bloqueado por sitios web, por rastreadores desde múltiples ubicaciones e IP.
En lugar de proporcionar una suite completa, Scrapehub es una plataforma de web scraping bastante compleja y poderosa en el mercado, cada herramienta proporcionada por Scrapehub cuesta dinero por separado.

5. Parsehub

https://preview.redd.it/3o1g0s9762g41.png?width=1920&format=png&auto=webp&s=9c7502d6e8c485a58ef1a5987d86fde4c7d2e916
Parsehub es otro scraper de escritorio sin codificación en el mercado, compatible con Windows, Mac OS X y Linux. Ofrece una interfaz gráfica para seleccionar y extraer los datos de las páginas JavaScript y AJAX. Los datos se pueden extraer de comentarios anidados, mapas, imágenes, calendarios e incluso ventanas emergentes.
Además, Parsehub también tiene una extensión basada en navegador para iniciar su tarea de raspado instantáneamente. Los datos se pueden exportar como Excel, JSON o mediante API.
Lo controvertido de Parsehub tiene que ver con su precio. La versión paga de Parsehub comienza en $149 por mes, que es más alta que la mayoría de los productos de raspado en el mercado, es decir, el plan estándar de Octoparse solo cuesta $89 por mes por páginas ilimitadas por rastreo. Hay un plan gratuito, pero lamentablemente se limita a raspar 200 páginas y 5 trabajos de raspado.

Conclusión
Además de lo que pueden hacer las herramientas automáticas de web scraping, ahora muchos canales de redes sociales ahora ofrecen API pagas a usuarios, académicos, investigadores y organizaciones especiales como Thomson Reuters y Bloomberg en servicios de noticias, Twitter y Facebook en redes sociales.
Con el desarrollo creciente y próspero de la economía en línea, las redes sociales abren muchas oportunidades nuevas para que su negocio se destaque en su campo, al escuchar mejor a sus clientes y relacionarse con sus clientes actuales y potenciales de formas completamente nuevas.
submitted by melisaxinyue to u/melisaxinyue [link] [comments]


2019.10.05 23:10 UnEjemploASeguir Ranking de Karma Septiembre 2019

Ranking de Karma Septiembre 2019
Aqui dejo la plantilla con el ranking completo
Los primeros puestos
User Karma Downvotes Posts Quantity Posts Quantity Comments
1 milanesacpapasfritas 311 9 5 40
2 artate 213 16 10 25
3 Sulfitodecobre 201 6 6 40
4 Shucito 199 15 9 35
5 cartuchera_vieja 190 7 3 29
6 Ensaladadepija 125 3 2 43
7 Rosseus_ 112 7 3 14
8 gustavsen 81 2 2 6
9 burn_again 76 5 2 5
10 Patriarkano 75 0 3 47

Los Flairs más usados
Flair Quantity
Random 35
Shitpost 28
Grandes Hitos de los OST's 9
Shucitpost 9
AskBenderStyle 9
OC 9
FoodPorn 6
Serio 6
Entretenimiento 6
Data Is Beautiful 4
Música 3
El Portal de las Mascotas 3
PSA 3
Utilísima 2
Anuncios 1
Salud 1
Reto ABS 1

Gráfica de barras

Gráfico circular
El mejor comentario del mes es de este Post
Mejor comentario
Otros datos
Statistics Quantity
Cantidad de comentarios 943
Cantidad de posts 135
Cantidad de usuarios que comentaron 200
Cantidad de usuarios que postearon 45

De donde obtengo estos datos?
Hice un programa en Python que recopila toda la información usando la API de reddit, una herramienta que brinda el sitio web, tiene limitaciones por lo que tengo que juntarlo varias veces durante el mes. Siendo mas especifico, reviso todos los post y comentarios y guardo todo en vectores, los comentarios y post borrados no son contados. Si quieren ver el código aqui les dejo el GitHub.
Por último decir que los datos no son 100% exactos, siempre hay margen de error. Saludos!
submitted by UnEjemploASeguir to ArgentinaBenderStyle [link] [comments]


2019.09.02 18:33 UnEjemploASeguir Ranking de Karma Agosto 2019

Aqui dejo la plantilla con el ranking completo
Los primeros puestos
User Karma total Downvotes Posts Quantity Posts Quantity Comments
1 Sulfitodecobre 291 17 10 48
2 milanesacpapasfritas 280 7 5 54
3 Shucito 187 13 9 35
4 burn_again 170 6 3 12
5 Ensaladadepija 152 0 2 54
6 Bxlcebu 137 5 4 10
7 nash_latkje1 116 12 3 31
8 skyner13 107 4 1 20
9 SubotaiKhan 97 4 2 12
10 SantyCarnivore 93 3 2 7
Los Flairs más usados
Flairs Quantity
Shitpost 31
Random 31
OC 18
Shucipost 13
Grandes Hitos de los OST's 11
El Portal de las Mascotas 8
Entretenimiento 7
AskBenderStyle 6
Food Porn 5
Post del Día 3
Data Is Beautiful 2
Sorteo ABS 2
Música 2
PSA 2
Top Post 1
Serio 1
Anuncios 1

El mejor comentario del mes es de este post
Otros datos
Estadística Cantidad
Cantidad de comentarios 864
Cantidad de posts 98
Cantidad de usuarios que comentaron 186
Cantidad de usuarios que postearon 49
De donde obtengo estos datos?
Hice un programa en Python que recopila toda la información usando la API de reddit, una herramienta que brinda el sitio web, tiene limitaciones por lo que tengo que juntarlo varias veces durante el mes. Siendo mas especifico, reviso todos los post y comentarios y guardo todo en vectores, los comentarios y post borrados no son contados. Si quieren ver el código aqui les dejo el GitHub.
Por último decir que los datos no son 100% exactos, siempre hay margen de error. Saludos!
submitted by UnEjemploASeguir to ArgentinaBenderStyle [link] [comments]


2019.08.02 03:04 UnEjemploASeguir Ranking de Karma Julio 2019

Ranking de Karma Julio 2019
Aqui dejo la plantilla con el ranking completo
Los primeros puestos
User Karma total Downvotes Posts Quantity Posts Quantity Comments
1 shucitx 766 57 22 26
2 nokensmok 539 46 24 46
3 IgnicionDigital 489 33 21 119
4 artate 317 22 17 27
5 Sulfitodecobre 305 20 11 72
6 SubotaiKhan 276 21 10 29
7 Shucito 183 15 9 13
8 cartuchera_vieja 163 10 5 30
9 lolconfess 159 3 2 60
10 milanesacpapasfritas 141 5 2 43
Los Flairs más usados
Flairs Quantity
Random 33
Shitpost 28
Shucipost 18
OC 18
Entretenimiento 15
Grandes Hitos de los OST's 12
Food Porn 11
Serio 9
Data Is Beautiful 8
Música 7
PSA 7
AskBenderStyle 6
Post del Día 5
Utilísima 4
El Portal de las Mascotas 4
Salud 4
Sin flair 1

Gráfica de barras

Gráfico circular
El mejor comentario del mes es de este post
Best comment
Otros datos
Statistics Quantity
Cantidad de comentarios 1171
Cantidad de posts 187
Cantidad de usuarios que comentaron 205
Cantidad de usuarios que postearon 45
De donde obtengo estos datos?
Hice un programa en Python que recopila toda la información usando la API de reddit, una herramienta que brinda el sitio web, tiene limitaciones por lo que tengo que juntarlo varias veces durante el mes. Siendo mas especifico, reviso todos los post y comentarios y guardo todo en vectores, los comentarios y post borrados no son contados. Si quieren ver el código aqui les dejo el GitHub.
Por último decir que los datos no son 100% exactos, siempre hay margen de error. Saludos!
submitted by UnEjemploASeguir to ArgentinaBenderStyle [link] [comments]


2019.07.02 03:35 UnEjemploASeguir Ranking de Karma Junio 2019

Ranking de Karma Junio 2019
Aqui dejo la plantilla con el ranking completo
Los primeros puestos:
User Upvotes total Downvotes posts Quantity Posts Quantity Comments
Sulfitodecobre 362 29 10 59
artate 339 50 19 42
milanesacpapasfritas 255 11 3 61
lolconfess 253 8 3 86
Shucito 201 17 16 32

Los flairs más usados del sub:
Flairs Quantity
Random 32
Shitpost 28
OC 19
Shucipost 19
Food Porn 16
Música 15
AskBenderStyle 15
El Portal de las Mascotas 14
Entretenimiento 12
Grandes Hitos de los OST's 11
Serio 9
Anuncios 4
Data Is Beautiful 3
PSA 3
Utilísima 2
Post del Día 2
Salud 1

flairs gráfica
El mejor comentario del mes de este post
best
Otros datos:
Statistics Quantity
Cantidad de comentarios 1048
Cantidad de posts 144
Cantidad de usuarios que comentaron 186
Cantidad de usuarios que postearon 47
De donde obtengo estos datos?
Hice un programa en Python que recopila toda la información usando la API de reddit, una herramienta que brinda el sitio web, tiene limitaciones por lo que tengo que juntarlo varias veces durante el mes. Siendo mas especifico, reviso todos los post y comentarios y guardo todo en vectores, los comentarios y post borrados no son contados. Si quieren ver el código aqui les dejo el GitHub.

Por último decir que los datos no son 100% exactos, siempre hay margen de error. Saludos!
submitted by UnEjemploASeguir to ArgentinaBenderStyle [link] [comments]


2019.06.02 05:40 UnEjemploASeguir Ranking de Karma Mayo 2019

Ranking de Karma Mayo 2019
Aqui dejo la plantilla con el Ranking completo
Los primeros puestos:
User Upvotes (Post+Comment) Downvotes (Post) Quantity Post Quantity Comment
xsawyerx 294 20 11 7
artate 290 39 22 23
lolconfess 285 17 7 85
nariloco 201 31 7 23
milanesacpapasfritas 170 4 3 38

Los flairs más usados del sub:
Flairs Quantity
Random 40
Shitpost 22
Food Porn 19
Shucipost 14
Grandes Hitos de los OST's 13
Serio 13
OC 10
Música 7
AskBenderStyle 6
Juegos 5
PSA 5
Data Is Beautiful 5
Utilísima 5
Post del Día 4
Salud 3
Anuncios 2
Sin Flair 1
El Portal de las Mascotas 1
Reto ABS 1

Gráfica de flairs
El mejor comentario del mes de este post:
https://preview.redd.it/emtj9hsu5v131.png?width=654&format=png&auto=webp&s=7316cbf656ce9f6c6735709d0258c15614a4a588
Otros datos:
Statistics Quantity
Cantidad de comentarios 1168
Cantidad de Post 140
Cantidad de usuarios que comentaron 197
Cantidad de usuarios que postearon 44

De donde obtengo estos datos?
Hice un programa en Python que recopila toda la información usando la API de reddit, una herramienta que brinda el sitio web, tiene limitaciones por lo que tengo que juntarlo varias veces durante el mes. Siendo mas especifico, reviso todos los post y comentarios y guardo todo en vectores, los comentarios y post borrados no son contados. Si quieren ver el código aqui les dejo el GitHub.

Por último decir que los datos no son 100% exactos, siempre hay margen de error. Saludos!
submitted by UnEjemploASeguir to ArgentinaBenderStyle [link] [comments]


2019.05.19 23:53 PLAY-on-youR-sErver Sobre la precariedad de los sistemas de información del mercado en Argentina

Por sistemas de información, me refiero a la capacidad de acceso a la información y como la tecnología nos permite acceder a esta.

Veamos un ejemplo sencillo: Tomemos un bono, el AO20.
Resulta que existen 3 símbolos para su cotización en el mercado, AO20, AO20D, AO20C.
Los tres son el mismo bono: paga en dólares, le quedan 3 cupones y vence en Agosto 2020.

La diferencia es que el AO20D, tiene el precio de cotización en dólares por cada papel de AO20. (O mejor dicho por 100 unidades, así se muestran los precios en el panel). Y el AO20, en pesos por cada 100. El AO20C es de "Dolar Cable", todavía me pregunto que significa.

En bolsar, la página del AO20 ofrece además de su cotización, una "descripción técnica" y un link al documento formal del último pago de cupón. Pero solo el último, si queres de uno anterior, seguro esta en el servidor, pero no hay un link para acceder.

En cambio, la del AO20D muestra únicamente la cotización. Ni mención hay de descripción técnica, o un simple link con un texto que diga "Es lo mismo que el AO20".
Y en este caso, es fácil darse cuenta, es una letra de diferencia nada más.

Luego llegaron las LECAP y las LETES. Y ahí agarrate. U2G9D, U30G9, U2G9C, UG9D, U16G9, UG9C, para nombrar solo dos letes, con sus tres simbolos. Vencen en agosto, cual primero, en que fechas? Con suerte tu broker pone el vencimiento al lado del simbolo...

Y ahí es cuando buscas en google, y tal vez encontras algo.
Por ejemplo, ¿Quién es SS9D? Parece ser el modelo de un microondas chino... pero está en el panel de bonos, y por el precio (y la "D"), parece cotizar en dolares.
Yo lo averigüe, google mediante, buscando "ss9d bolsar", y lo único que encontré fue un PDF indexado por google, de hace unos meses, de un día que decidieron cambiar los códigos de letes/lecap, y acá aparece la única referencia en internet a este símbolo del mercado argentino.
Lo otro que no vas a encontrar en bolsar es el detalle de pago de los cupones.
Para eso Rava y Puente cumplen. Y no mucho más.
Cotizaciones tienen también, pero de esas hay varias paginas... y en general todas medio pelo, con interfaces no muy modernas y sitios que no son dinámicos. (Tradingview es otra galaxia)
Mas o menos que la data básica, lo fundamental, los vencimientos y los intereses, están.
Pero te metes con bonos menos populares que el AY24 y el DICA, por ejemplo bonos de Ribeiro, y se pone más tosco el panorama.
La cuestión, estamos en 2019.
Y la verdad que los sitios de los brokers son básicos, toscos. Web 1.0, no podes ni encontrar un gráfico de precios por minuto. ¿No les parece que atrasa unos años el nivel de los sistemas?
Mi conclusión hasta el momento es que hace falta elevar el nivel. Es como que hay una barrera para informarse y saber los detalles, cuando eso debería ser de público conocimiento.
Estoy con un proyecto para contribuir con la información. Esta en sus primeras etapas, será un sitio web moderno, especializado en renta fija y tasas de interés. Focalizado en la información de todos los bonos argentinos.
submitted by PLAY-on-youR-sErver to merval [link] [comments]


2019.05.02 01:23 UnEjemploASeguir Ranking de Karma Abril 2019

Ranking de Karma Abril 2019
Aqui dejo la plantilla con el ranking completo.
Primero que nada, Feliz día del trabajador!

Aqui los primeros puestos:
User Upvotes (Post+Comment) Downvotes (Post) Quantity Post Quantity Comment
lolconfess 387 13 10 132
xsawyerx 340 23 21 15
artate 254 23 20 36
Shucito 249 13 16 46
gustavsen 235 17 13 43

Los Flairs más usandos del sub son:
Flair Quantity
Random 35
Shitpost 32
Food Porn 31
OC 27
Shucipost 26
El Portal de las Mascotas 20
AskBenderStyle 18
Música 13
Grandes Hitos de los OST's 12
Serio 12
Juegos 8
Data is Beautiful 7
PSA 5
Utilísima 3
Post del día 3
Sorteo ABS 1
Top Post 1

Gráfica de flairs

El mejor comentario del mes:
Del post Woke

Otros datos:
Statistics Quantity
Cantidad de comentarios 1579
Cantidad de posts 206
Cantidad de usuarios que comentaron 216
Cantidad de usuarios que postearon 57

De donde obtengo estos datos?
Hice un programa en Python que recopila toda la información usando la API de reddit, una herramienta que brinda el sitio web, tiene limitaciones por lo que tengo que juntarlo varias veces durante el mes. Siendo mas especifico, reviso todos los post y comentarios y guardo todo en vectores, los comentarios y post borrados no son contados. Si quieren ver el código aqui les dejo el GitHub.

Por último decir que los datos no son 100% exactos, siempre hay margen de error. Saludos!
Edit: Error de tipeo
submitted by UnEjemploASeguir to ArgentinaBenderStyle [link] [comments]


2019.04.05 23:06 LinkToU Freelancing guide for beginners in Venezuela(Without Programming Skillls) / Guía de Freelance para principiantes en Venezuela (Sin conocimiento de programación)

Hello reddit! My name is LinkToU, and i’ve been commissioned by u/justgord to share some of my freelancing experience, living in Venezuela. It might not be much, but hopefully it'll help some people get started.
I’ve seen countless numbers of posts here in this subreddit, asking for advice on how to get started, and what are the best ways to receive money, so those are topics i’ll be touching upon in this guide.
As the title says, this is a guide that requires NO programming skills, this is meant to be a guide towards beginners, and people that are having a rough time, like i was, two and a half years ago, before getting into this.
 
First of all, i recommend reading this guide through google docs, because i'm not too familiar with reddit's formatting, and i think this version just looks better: https://docs.google.com/document/d/1DotVUAtEAUXfgTAhDZtmylTzA4nImhoAGZCI-8XdKtM/edit?usp=sharing
Spanish version: https://docs.google.com/document/d/13DNEyyF7F-fXjpA1AplGqQjVh0H_LWd0cCjoKdZzQm4/edit?usp=sharing
 
VERSIÓN EN ESPAÑOL DE LA GUÍA A MITAD DEL POST
 
 
Now, without further ado, let’s dive right into this.
 
What type of work can you expect to find?
There are actually a few types of jobs that you can easily find without any specific skill, for example, translations, lead generation, data entry, transcriptions, writing articles, and even being a virtual assistant. This list could go on and on, but i’ll just give you a couple websites where you can find these types of work, and you can go figure out what’s best for you.
 
Where to find work?
Most of the freelance work i've done it's been through two major websites, so i'll talk a little bit about them and about my experience with each.
 
Spare5 (https://app.spare5.com/) is the crowdworking website that got me into this, . This is basically a crowdworking website where you’ll be reviewing different images, annotating and drawing different polygons to help train AI to identify everyday objects.
Getting started in this page is the hardest part, but i’d say it’s just as hard as it was back in 2017 when i started.
You’ll first have to complete every tutorial, then move on to the qualifiers and onto paid tasks (be sure that you understand every task before diving into them, because if you don’t perform well on your paid tasks, they’ll be taken away from you, and you might even get permanently banned).
The minimum payment is $1, and the payment method that they use is PayPal, you don’t need to have a verified Paypal account, and you WILL NOT get your account limited by just receiving money from this page.
Like i said, the hardest part of this page is to get started, as tasks will be scarce, so try not to make any mistakes, and do every task as best as you can, this will guarantee that they give you even more tasks, and eventually, you’ll be assigned permanent tasks, and your dashboard will look something like this: https://imgur.com/a/TSUASME , as you notice, the payment for each task is really low but don’t get discouraged, you’ll want to find one that is easy to do, and that you can memorize the instructions, i’ve made up to $20 in just a couple of hours, out of easy tasks that paid 0.2c each. Of course, you’ll need practice, Practice makes perfect.
I have NOT been working on this page lately, because the payment per tasks has been diminished, and tasks only get more and more complicated to complete.
 
 
 
 
 
Next, is Reddit, more specifically, the subreddit where i’ve found most of my freelancing jobs, is /slavelabour , where people post any kind of job that they need done (Seriously, any, i’ve seen many kinds of crazy stuff going on there), along with a payment offer, and usually a method.
This one is pretty good, since you can find different kinds of work based on your skills, i’ve mostly done data entry types of jobs there, but there are many others easy for beginners, you just have to keep an eye out for when any potential job gets posted.
Other similar subreddits that i frequent, but aren’t as active as /slavelabour are: /Jobs4Bitcoins/ , /WorkOnline/ /ForHire/ Follow the same advice that i will give for /slavelabour , as these work similarly.
 
Those are the main two websites where i've worked at for the past two years, there are some others that i know of, but since i haven't used them, i don't know how they work.
 
 
Now, let's talk a little bit about payment methods, and what are some good options for receiving your money once you've got yourself some gigs.
 
Payment methods:
Now that you know what are some good places to get started, let's talk about what's the best place to receive your payments, and keep your money safe. I’ll take about the few methods that i’ve used myself, such as PayPal, Uphold, AirTM, and most recently, Cryptos.
 
Where to receive your payments?
 
 
 
 
Uphold is another cloud based financial services platform, similar to PayPal, and with similar fees. The good thing about this platform, is that you can exchange your funds from USD to Crypto, and many other currencies, at the cost of a relatively small fee.
I haven’t used this method too much myself, as i used this mainly for it’s Virtual Credit Card feature, which is temporarily not available.
 
 
 
AirTM is an e-wallet where you can keep your money, and exchange it to other currency, or buy USD with your local money, all in the same platform.
Out of all the options i'm going to list for payment methods, this is my least favorite, as the fees are incredibly high, and in my opinion, what this website provides isn't worth it.
I haven’t had much experience with AirTM, as the fees are ridiculous, but i’ve used it and i’ll share my experiences.
 
 
 
Finally, Cryptocurrencies, i’ve only started using this method recently, and i can already say, this is my favorite so far, and the method i’ll mainly use from now onwards, as this has proven to be really easy to set up, and in my opinion, the best option for receiving payments, as you’ll pay minimum fees for your transactions, keep your identity safe, and the exchange rate to Venezuela’s currency is really good.
I’d say there is no downside to receiving your payments here, as even if you were worried by the Crypto’s price dropping, you could easily use a third party website to exchange your Crypto, to USD in any other platform you’d like.
The cryptocurrencies that i’ve used are Bitcoin Cash (BCH), Bitcoin (BTC) and Ethereum (ETH), all of the transactions that i’ve done haven’t taken longer than 30 minutes, with the exception of using SideshiftAI to exchange my BCH into BTC, which took about an hour. Setting up a wallet for these is rather easy, however here’s a quick guide for BTC and BCH. https://bitcoin.org/en/getting-started .
Also, another point in Crypto’s favor, is that some stores have begun accepting cryptos as a payment method, there’s an app in the Google Play Store named “CryptoLugaresVE” With a list of places accepting crypto as a payment method.
 
 
 
Finally, i’ll talk a little bit about the couple websites that you can use to safely exchange money from USD, to Venezuela’s currency. Other than these, you’d have to find someone of your trust to exchange your currency.
 
Where to safely exchange your earnings to Venezuela’s currency?
 
 
 
 
 
That’s it for now, I’ll probably update the guide as i learn more and try out new stuff, as well as with your feedback. I just want to thank u/justgord for giving me the opportunity to share all of this with you guys!
 
 
Hola Reddit! Mi nombre es LinkToU, y u/justgord me comisionó para compartir con ustedes mi experiencia trabajando como freelancer en Venezuela.
He visto un montón de posts de gente pidiendo consejos para comenzar, cuáles son las mejores plataformas para recibir dinero, y cosas así, así que esos serán los temas que trataré en esta guía para principiantes.
Como dice el título, esta es una guía para personas que no tienen conocimiento de programación, sólo necesitarán un buen conocimiento de Inglés.
 
Recomiendo leer esta guía a través de google docs, ya que no estoy muy familiarizado con el formatting de reddit, y creo que esta versión es más fácil de leer: https://docs.google.com/document/d/13DNEyyF7F-fXjpA1AplGqQjVh0H_LWd0cCjoKdZzQm4/edit?usp=sharing
 
Versión en inglés: https://docs.google.com/document/d/1DotVUAtEAUXfgTAhDZtmylTzA4nImhoAGZCI-8XdKtM/edit?usp=sharing
 
Bueno, sin más que contar, comencemos.
 
¿Qué tipo de trabajo se puede encontrar?
Hay varios tipos de trabajos que puedes realizar sin tener ningún tipo de conocimiento específico, por ejemplo, “lead generation”, registro de data, transcripciones, escritor de artículos, o incluso asistente virtual. Podría seguir nombrando tipos de trabajo, pero lo mejor será que les diga algunos lugares para encontrar trabajo, y que ustedes decidan qué es lo mejor.
 
¿Dónde puedes encontrar trabajo?
He trabajado principalmente a través de dos sitios web, así que hablaré un poco de mi experience en cada uno de ellos.
 
 
Spare5 (https://app.spare5.com/) es el sitio web de “crowdworking” con el que comencé a trabajar, hace dos años. Básicamente, estarás revisando diferentes imágenes, anotando y delineando diferentes objetos para ayudar a entrenar inteligencia artificial a identificar dichos objetos.
Diría que lo más difícil, es comenzar en esta página, pero no es mucho más difícil que en el 2017, cuando yo comencé, así que aún es posible.
Lo primero que tendrás que hacer, será completar los tutoriales, que te darán acceso a algunos calificadores, que determinarán si estás listo o no para tareas pagas (asegúrate de comprender bien cada una de las tareas, antes de comenzar a hacerlas, ya que si no las haces bien, te las quitarán y te podrían banear permanentemente.)
El mínimo de pago es $1, pagado a través de PayPal, no hace falta tener una cuenta de PayPal verificada, y recibir fondos de esta página NO hará que tu cuenta de PayPal sea bloqueada.
Como dije antes, lo más difícil de esta página es comenzar, al principio las tareas serán escasas, así que asegúrate de hacerlas bien, ya que esa es la única manera de garantizar que te seguirán enviando tareas. Eventualmente, te darán tareas fijas, y tu panel principal se verá algo así https://imgur.com/a/TSUASME . El pago por cada tarea es bajo, pero lo importante es encontrar una cuál sea fácil y memorizar las instrucciones. Yo he hecho hasta $20 en un par de horas, con tareas fáciles que pagaban 0.2c cada una. Sólo hace falta práctica.
Últimamente no he trabajado en esta página, ya que la paga por las tareas ha disminuido, y sólo son más difíciles de hacer cada vez.
 
  • Ventajas de Spare5:
    • Tu pago está asegurado en esta página (A menos que te baneen por hacer las tareas mal), e incluso si tu cuenta de PayPal es bloqueada, puedes reembolsar el dinero que te hayan pagado a tu cuenta de Spare5 (Nunca lo he hecho, pero sé que se puede hacer, y el equipo de soporte de Spare5 también te asiste en esto.)
    • La cantidad de tareas que tienes disponibles se basa en tu desempeño en tareas previas del mismo tipo, así que si las haces bien, garantizas tener trabajo siempre que haya alguno disponible.
    • Hay algunas tareas que son fáciles de hacer, y pagan bien, he ganado hasta $50 en una noche solo con tareas que pagaban 0.2c cada una.
    • Tus ganancias en esta página no vienen solamente de las tareas, hay un sistema de referidos que te paga un 20% de los primeros $100 que cada uno de tus referidos gane, y ellos recibirán 10% más de sus primeros $100, sólamente por usar tu código de referido.
    • Una vez tengas suficiente experiencia en esta página, puede que el equipo de Spare5 se comunique contigo personalmente para que pruebes nuevas características que piensan añadir a la página principal, o simplemente para entrevistarte y pedirte tu opinión sobre ciertas cosas. En cualquiera de estos casos, te pagarían por tu tiempo, mucho más de lo que ganarías normalmente haciendo tareas. También existe una posición de moderador de los foros, en la cuál he escuchado que te pagan basado en la cantidad de personas que has ayudado, una vez tienes el rol de moderador.
  • Desventajas de Spare5:
    • Ya que hay un número limitado de tareas, habrá tiempos donde no habrá ninguna disponible, incluso si tienes una gran cantidad de experiencia en la página, hay ciertas épocas del año en las que simplemente no hay tareas disponibles (Usualmente, en Enero). Esto es lo que hizo que dejara esta página, y buscara una manera más consistente de generar ingresos.
    • Hay que leer un montón de instrucciones para completar cualquier tarea, y una vez termines de leerlas, puede que tengas que elegir otra diferente, debido a que la tarea que ibas a hacer ya no está disponible.
    • Estás sujeto a la revisión de otros usuarios, lo que significa que aunque completes la tarea perfectamente, si la persona que te revisa comete un error, serás castigado por eso. Incluso si tú revisas la tarea, la manera que ellos utilizan para determinar si una tarea está bien o mal, se basa en la media de los usuarios que la marcaron como correcta o incorrecta, así que si tu estás en la minoría, serás castigado por eso nuevamente.
  • Mis recomendaciones para Spare5
    • Tómate tu tiempo y lee cada una de las instrucciones. Si te banean por hacer las tareas mal, serás vetado permanentemente de este sitio web.
    • Si estás inseguro sobre qué hacer en un caso específico, pregúntale a la comunidad.
    • Si luego de leer las instrucciones, y pedirle consejo a la comunidad, sigues inseguro, omite la imagen.
    • No dudes en omitir las imágenes, no tiene ninguna consecuencia negativa, debes ver el botón de “Omitir”, como una herramienta cualquiera.
 
 
Lo siguiente, es Reddit, más específicamente, el subreddit donde encuentro usualmente trabajo de freelance es /slavelabour , dónde las personas publican cualquier tipo de trabajo que necesiten sea completado, junto con un método de pago, y una oferta, para encontrar a alguna persona dispuesta a hacerlo.
Esta opción es especialmente buena, ya que puedes encontrar muchos tipos de trabajo, dependiendo de tus cualificaciones. Yo he hecho mayormente trabajos de registro de data, pero hay muchas otras opciones fáciles para comenzar, sólo hay que estar pendiente de cuando puedan ser publicadas nuevas oportunidades.
Otros subreddits similares que frecuento pero no son tan activos como /slavelabour son: /Jobs4Bitcoins/ , /WorkOnline/ , /ForHire/ Sigan los mismos consejos que daré para /slavelabour , ya que estos funcionan de manera similar.
 
  • Ventajas del subreddit /slavelabour y otros similares.
    • Diversidad de trabajos dependiendo de tus habilidades.
    • Oportunidad de encontrar posiciones permanentes.
    • Puedes hablar directamente con la persona que está contratando y discutir el método de pago de tu preferencia.
    • Gran cantidad de oportunidades de trabajo.
    • Trabajos simples.
  • Desventajas del subreddit /slavelabour y otros similares
    • Debes cuidarte de posibles estafadores.
    • Se necesita un mínimo de actividad en tu cuenta de reddit para participar en estos subreddits.
    • Las pagas son bajas, por lo general.
    • Hay una gran demanda para cada oferta de trabajo, así que hay que ser rápido, y saber la mejor manera de venderse a sí mismo como candidato.
 
  • Mis recomendaciones para estos subreddits.
    • Si algo se ve demasiado bueno para ser verdad, probablemente lo sea.
    • Pide tu pago por adelantado, y construye una buena reputación en la comunidad.
    • Si piensas trabajar para alguien, revisa su perfil, y si algo se ve fuera de lugar, no arriesges perder tu tiempo y ser estafado.
 
 
Métodos de pago:
Ahora que saben cuáles son algunos buenos lugares para empezar a conseguir trabajo, les hablaré sobre cuáles son las mejores plataformas de pago para recibir dinero, y mantenerlo seguro. Hablaré sólo de los que he usado, como PayPal, Uphold, AirTM, y recientemente, Criptomonedas.
¿Dónde recibir tus pagos?
  • PayPal es la manera más fácil de recibir y enviar dinero, con comisiones aceptables, y también es la más fácil de comenzar a usar.
    Igualmente, tu dinero no está 100% seguro en PayPal, ya que tu cuenta podría ser limitada y tu saldo retenido hasta que puedas probar que no estás recibiendo fondos de ninguna actividad ilícita, o invirtiendo en alguna. Esto último es difícil de probar, ya que vender fondos de PayPal en Dólares(USD), a cambio de la moneda Venezolana (Bs), es ilegal.
    Si planeas usar PayPal, recomiendo que verifiques tu cuenta con una tarjeta de crédito bajo tu nombre. Usar una tarjeta de crédito virtual, va contra los TDS de PayPal, yo igualmente usé una (Y no he tenido ningún problema), ya que no hay muchas opciones en Venezuela, debido a que es prácticamente imposible conseguir una tarjeta de crédito
    • Ventajas de usar PayPal
      • Es fácil de comenzar a usar, y enviarecibir dinero también es fácil. Es el método de pago más usado para trabajos de freelance.
      • Cambiar dinero de tu cuenta de PayPal a la moneda de Venezuela es fácil, ya que los compradores son fáciles de encontrar.
      • Puedes reembolsar tu dinero en caso de que seas estafado al intentar vender tu saldo PayPal.
      • Hay ciertas páginas web, y métodos que garantizan tu seguridad y la de tu cuenta PayPal al realizar ventas de tu saldo PayPal.
      • Puedes retirar tu dinero de PayPal, a una cuenta bancaria en dólares (o dependiendo de la moneda) de algún país extranjero, con comisiones mínimas.
      • Puedes usar tu balance de PayPal para comprar en ciertos sitios web, como Wish, Ebay, u otros.
    • Desventajas de usar PayPal
      • Las comisiones son altas comparadas a otras plataformas de pago.
      • Debes verificar tu cuenta para proteger tu dinero, y algunos compradores sólo adquieren saldo de cuentas verificadas.
      • El servicio al cliente de PayPal no es muy útil, o comprensivo cuando intentas recuperar una cuenta limitada.
      • Puede que algunos estafadores intenten reembolsar el dinero que te enviaron luego de que terminas el trabajo, y tendrás que disputar su reembolso.
      • Existe la posibilidad de que tu cuenta sea límitada (aunque nunca me ha sucedido).
    • Mis recomendaciones para usar PayPal
      • Primero que nada, verifica tu cuenta, esto hará las cosas mucho más fáciles para tí, y podrás usar tu balance de PayPal para comprar en eStores.
      • No envíes ni recibas pequeñas cantidades de dinero de otras personas, yo personalmente evito recibir cantidades menores a $5, y no acepto ninguna cantidad menor a $1.
      • Realiza tus cambios sólo con personas en las que confíes, busca referencias de personas que conozcas, y no confíes en extraños. Tener un comprador fijo es la mejor manera de mantener tu dinero seguro, aunque no siempre ofrecen el mejor precio.
      • Evita los reembolsos y las disputas, ya que eso atraerá atención no deseada a tu cuenta de PayPal. Es mejor perder $10 por un estafador, que todo el saldo de tu cuenta por un bloqueo.
 
 
  • Uphold es otra plataforma similar a paypal, con comisiones similares.
    El punto a favor de esta plataforma, es que puedes intercambiar tus fondos de USD, a muchas otras criptomonedas, u otra moneda extranjera, al costo de una comisión relativamente pequeña.
    No he usado mucho este método, lo utilizaba principalmente por la función de crear una tarjeta de crédito virtual, pero esta está temporalmente desactivada.
    • Ventajas de usar Uphold
      • Puedes intercambiar tu saldo de USD a otra moneda, o incluso criptomonedas, fácilmente.
      • En el futuro, es posible que vuelva la función de crear una tarjeta de crédito virtual.
      • No tiene el problema de limitación de PayPal.
      • No es difícil de usar.
      • Las comisiones no son muy altas.
      • Aunque no muchas personas usen Uphold, puedes recibir pagos en criptomonedas aquí.
    • Desventajas de usar Uphold
      • En mi experiencia, las transacciones con criptomonedas tardan horas en ser confirmadas.
      • Configurar tu cuenta para comenzar a utilizar Uphold no es tan fácil como en otras opciones.
 
 
  • AirTM es una billetera electrónica donde puedes guardar tu dinero, e intercambiarlo a otras monedas, o incluso comprar monedas extranjeras con tu moneda local, todo en la misma plataforma.
    No he utilizado mucho esta plataforma, debido a que las comisiones son ridículamente altas, pero siempre la he visto como una especie de plan de contingencia, en caso de que necesite dinero, y no haya ninguna otra opción disponible.
    • Ventajas de usar AirTM
      • Puedes recibir dinero, y encontrar compradores en una misma plataforma.
      • Tiene todas las herramientas necesarias para cambiar tu dinero 100% seguro.
      • Es la opción más fácil en términos de pasar de recibir dinero a cambiarlo a otras monedas.
    • Desventajas de usar AirTM:
      • Las comisione son extremadamente altas.
      • No es tan fácil configurar tu cuenta, y tomará algo de tiempo acostumbrarte a usar esta plataforma.
      • Pide un montón de cosas para verificar tu identidad.
      • El gobierno de Venezuela ha bloqueado previamente esta plataforma, y dijo estar “buscando a todos los delincuentes vinculados a esta página criminal”.
 
 
  • Finalmente, Criptomonedas, empecé a usar este método de pago recientemente, pero hasta ahora, es mi favorito, y probablemente sea el que utilice de ahora en adelante para recibir mis pagos, ya que es fácil de configurar, y en mi opinión, la mejor forma de recibir pagos, ya que cuenta con las comisiones más bajas por transacción, mantiene tu identidad segura, y el ratio de intercambio de criptomoneda a moneda venezolana es bueno.
    Diría que no hay ninguna desventaja a recibir tus pagos en criptomonedas, ya que incluso si te preocupa que el precio de la criptomoneda baje, puedes usar un sitio web de algún tercero para cambiar tus criptomonedas a cualquier otra plataforma de tu preferencia, a un buen precio.
    Las criptomonedas que he utilizado son Bitcoin Cash (BCH), Bitcoin (BTC) y Ethereum (ETH), todas las transacciones que he realizado no han tardado más de 30 minutos en completarse, con la excepción de cuando usé SideshiftAI para cambiar mi saldo BCH a BTC, y aún en ese caso, tardó cerca de una hora.
    Crear una billetera es fácil, igualmente, aquí hay una guía para comenzar en BTC y BCH. https://bitcoin.org/es/como-empezar
    Otro punto en el favor de las criptomonedas, es que algunas tiendas en Venezuela han comenzado a aceptar estas como método de pago, hay una app en la Google Play Store llamada “CryptoLugaresVE” Con una lista de lugares que aceptan criptomonedas como forma de pago.
    • Ventajas de Usar Criptomonedas:
      • Las comisiones son extremadamente bajas
      • Anónimo.
      • Buen ratio de cambio a otras monedas.
      • Fácil de usar
      • Puedes ganar dinero potencialmente, si la criptomoneda que usas aumenta en precio.
      • Puedes usarla como método de pago en muchas tiendas virtuales, y algunas tiendas de Venezuela.
      • No es posible reembolsar pagos que te hayan enviado.
    • Desventajas de usar Criptomonedas
      • Puedes perder dinero si la criptomoneda que usas pierde valor.
      • No puedes reembolsar tus pagos.
      • Las transacciones pueden tardar un montón de tiempo en completarse.
      • Debido a la volatilidad del precio de las criptomonedas, no es buena opción para guardar tus ahorros.
    • Mis recomendaciones para usar Criptomonedas
      • No guardes dinero que no puedes perder en criptomonedas, así, si el precio baja, no perderás mucho.
      • Intercambia tus criptomonedas sólo con compradores confiables, o utiliza algún sitio web de terceros que asegure tu dinero.
      • Cambia la dirección de tu billetera luego de cada transacción.
 
 
Por último, hablaré sobre un par de sitios web donde pueden intercambiar dinero de dólares, a la moneda local venezolana. Aparte de estos, existen otros sitios webs de confianza, y siempre está la posibilidad de encontrar una persona de confianza para realizar todos sus cambios de USD - Bs.
 
  • ¿Dónde puedo cambiar mis ganancias de forma segura a la moneda local de Venezuela?
    • Appbb (https://www.appbb.co/) es una tienda virtual que también compra saldo de diferentes plataformas (Payoneer, Uphold, Paypal, Criptos, etc.), y aunque no tienen las mejores tasas, son una opción confiable, segura y buena.
      Lo malo de esta página es que tienen una cantidad limitada de cupos por día, así que tendrán que esperar a que la tienda abra cada día, y agarrar su cupo rápidamente.
      No he usado esta tienda en algún tiempo, sé que han cambiado un par de cosas y ya no estoy tan seguro de cómo funciona, pero pueden escribir directamente a su página de facebook y su equipo de soporte siempre está atento allí.
    • Localbitcoins (https://localbitcoins.com/) es un sitio web de intercambios donde puedes vender o comprar bitcoins de diferentes usuarios de forma segura. Este sitio web solo funciona para vender Bitcoins, pero es posible comprar bitcoins con dinero de cualquier otra plataforma, con una buena tasa, para luego venderlos.
    • Foro-Ptc (https://www.foro-ptc.com/) es un foro dedicado a generar ganancias online, hay muchos recursos interesantes aquí que les recomiendo lean, pero más importante, hay una sección completa dedicada a la venta y compra de dólares por la moneda local.
      Hace falta una cuenta con 30 días de antigüedad, y algunos posts antes de poder enviar mensajes privados a cualquier persona, pero hay algunos vendedores designados a quienes podrás enviar mensajes sin importar la antigüedad de tu cuenta, con quienes podrás hacer intercambios sin tener que esperar.
 
 
Eso es todo por ahora, probablemente siga actualizando la guía mediante vaya aprendiendo nuevas cosas, o con sus recomendaciones. Sólo quiero agradecerle a u/Justgord por darme la oportunidad para compartir todo esto con ustedes!
submitted by LinkToU to vzla [link] [comments]


2015.01.19 23:41 CLEPTPOLITICA La carrera armamentista digital: NSA prepara America para una futura guerra.

Últimas noticias sobre el colosal espionaje de Estados Unidos. El artículo contiene los detalles así como documentos sobre la NSA catalogados como "Top secret" en Pdf descargables.
He copiado el artículo aquí pero desde esta platarforma no podréis acceder a los Pdf's. Para acceder al artículo haz click en el link:
http://cleptpolitica.com/2015/01/18/la-carrera-armamentista-digital-nsa-pepara-america-para-una-futura-guerra/
Vigilancia masiva de la NSA es sólo el comienzo. Los documentos de Edward Snowden muestran que la agencia de inteligencia está armando a América para futuras guerras digitales, una lucha por el control de Internet que ya está en marcha.
Normalmente los solicitantes de las prácticas deben tener un Currículum impoluto, Los trabajos voluntarios en proyectos sociales son considerados un plus. Pero para Politerain, el puesto de trabajo requiere que los candidatos tengan un gran conjunto de diferentes habilidades. El anuncio dice “Estamos en busca de los internos que quieren romper las cosas.”
Politerain no es un proyecto que esté asociado con una empresa convencional. Está dirigido por una organización de inteligencia del gobierno de Estados Unidos, la Agencia de Seguridad Nacional (NSA). Con más precisión, es operado por francotiradores digitales de la NSA, para acceder a redes enemigas. Los espías utilizan las herramientas desarrolladas por TAO, son las siglas de Tailored Access Operations, que traducido viene a significar Oficina de Operaciones de Acceso Adaptado
Los potenciales invididuos en prácticas, también se les dice que la investigación sobre las computadoras de terceros, podría incluir planes para “degradar de forma remota o destruir computadoras del oponente, así como routers, servidores y dispositivos de red habilitada atacando el hardware.” Usando un programa llamado Passionatepolka, por ejemplo, se puede pedir que “de forma remota tapie las tarjetas de red.” Con programas como Berserkr iban a implantar “puertas traseras persistentes” y “conductores parasitarias”. Otro software llamado Barnfire, podría “borrar la BIOS en una marca de servidores que actúan como una columna vertebral de muchos gobiernos rivales.”
Las tareas de los internos, también podrían incluir destruir remotamente la funcionalidad de los discos duros. En última instancia, el objetivo de la pasantía del programa fue “el desarrollo de la mentalidad de un atacante.”
La lista de prácticas es de una duración de ocho años, este hecho hace que ya la mentalidad del atacante se haya convertido en una especie de doctrina para los espías de datos de la NSA. El servicio de inteligencia, no sólo está tratando lograr una vigilancia masiva de la comunicación por Internet se refiere. Los espías digitales de la alianza Cinco Ojos – compuestos por los Estados Unidos, Gran Bretaña, Canadá, Australia y Nueva Zelanda – quieren más.
El nacimiento de las Armas D
De acuerdo con documentos de alto secreto del archivo de la NSA que Edward Snowden filtro al periódico alemán Der Spiegel, están planeando utilizar la red para paralizar las redes de ordenadores, así como toda la infraestructura que controlan, incluyendo energía, agua, fábricas, aeropuertos o el flujo de dinero, en el cual internet juega un importante papel.
Durante el siglo XX, los científicos desarrollaron las llamadas armas ABC – atómica, biológica y química. Tomó décadas antes de que su utilización pudiera ser regulada en parte, fuera de la ley. Las nuevas armas digitales, ahora se han desarrollado para la guerra en Internet. Pero casi no existen convenios internacionales o autoridades de control de estas armas D, y la única ley que se aplica es la supervivencia del más apto. El teórico de los medios canadiense Marshall McLuhan, previó esta evolución hace décadas. En 1970, escribió,
“la tercera guerra mundial, es una guerra de guerrillas de la información sin ninguna división o distinción entre militares y la participación civil.” 
Esta es la realidad que los espías están preparando para hoy. La Armada, la Infantería de Marina y las Fuerzas Aéreas del Ejército de Estados Unidos ya han establecido sus propias fuerzas cibernéticas, pero la NSA, es también oficialmente un organismo militar, que está tomando el liderazgo. No es ninguna coincidencia, que el director de la NSA, también forme parte como jefe del Comando Cibernético de Estados Unidos. El espía líder del país, el almirante Michael Rogers, es también el primer guerrero cibernético, con un número cercano a 40.000 empleados, los cuales son responsables tanto el espionaje digital, así como ataques de red destructivas.
Vigilancia sólo “Fase 0 ‘
Desde un punto de vista militar, la vigilancia de Internet no es más que la “Fase 0″ en la estrategia de guerra digital de Estados Unidos. Los documentos internos de la NSA indican que es un requisito indispensable para lo que está por venir. El objetivo de la vigilancia es detectar vulnerabilidades en los sistemas enemigos. Una vez han sido colocados los “implantes furtivos” para infiltrarse en los sistemas enemigos, estos permiten “accesos permanentes”, dando lugar a la fase tres – una fase encabezada por la palabra “dominar” en los documentos. Esto les permite “control o destrucción de sistemas y redes críticas a voluntad, a través de accesos pre-posicionados (establecidos en la Fase 0).”
Cualquier cosa importante que mantenga en funcionamiento de la sociedad es considerada por la agencia una crítica infraestructura: la energía, las comunicaciones y el transporte. Los documentos internos muestran que el objetivo final es un “aumento de control a tiempo real”. Una presentación de la NSA, proclama que “el próximo gran conflicto se iniciará en el ciberespacio”. Con este fin, el gobierno de Estados Unidos, está llevando a cabo un esfuerzo masivo, para armar digitalmente en sí para la guerra de la red. Para el presupuesto de inteligencia secreta de 2013, la NSA calculó, que se necesitarán alrededor de $ 1 mil millones, con el fin de aumentar la fuerza de sus operaciones de ataque de redes informáticas. El presupuesto, incluye un aumento de unos $ 32 millones solamente para “soluciones no convencionales”.
NSA Docs sobre ataques de red la Explotación
Excerpt from the secret NSA budget on computer network operations / Code word GENIE Document about the expansion of the Remote Operations Center (ROC) on endpoint operations Document explaining the role of the Remote Operations Center (ROC) Interview with an employee of NSA’s department for Tailored Access Operations about his field of work Supply-chain interdiction / Stealthy techniques can crack some of SIGINT’s hardest targets Classification guide for computer network exploitation (CNE) NSA training course material on computer network operations Overview of methods for NSA integrated cyber operations NSA project description to recognize and process data that comes from third party attacks on computers Exploring and exploiting leaky mobile apps with BADASS Overview of projects of the TAO/ATO department such as the remote destruction of network cards iPhone target analysis and exploitation with Apple’s unique device identifiers (UDID) Report of an NSA Employee about a Backdoor in the OpenSSH Daemon NSA document on QUANTUMSHOOTER, an implant to remote-control computers with good network connections from unknown third parties 
US-DEFENSE-CYBERSECURITY-SUMMIT
En los últimos años, los expertos han atribuido el malware a la NSA y su alianza Cinco Ojos basada en una serie de indicadores, que Incluyen programas como Stuxnet, que se utilizan para atacar el programa nuclear iraní. O Regin, un potente troyano spyware, que causó furor en Alemania, después de que infecta la memoria USB de un miembro del personal de alto rango, de la canciller Angela Merkel. Los agentes también utilizan Regin, en ataques contra la Comisión Europea, el ejecutivo de la UE y la compañía belga de telecomunicaciones Belgacom en 2011.
Dado que los espías, pueden romper de manera rutinaria casi cualquier software de seguridad, prácticamente todos los usuarios de Internet están en riesgo de un ataque de datos.
Los nuevos documentos, arrojan nueva luz sobre otras revelaciones también. Aunque un ataque llamado Quantuminsert ha sido ampliamente reportado por Spiegel y otros. La documentación muestra, que en realidad tiene una baja tasa de éxito y probablemente ha sido reemplazado por ataques más fiables, como Quantumdirk, que inyecta el contenido malicioso en los servicios de chat, proporcionadas por sitios web tales como Facebook y Yahoo. Ordenadores infectados con Straitbizarre pueden convertirse en nodos “shooter” desechables y no atribuibles. Estos nodos se pueden recibir mensajes de la red Quantum de la NSA, que se utiliza como “mando y control para una gran explotación activa y ataque.” Los agentes secretos también fueron capaces de infringir o piratear los teléfonos móviles, debido a una vulnerabilidad en el navegador Safari, con el fin de obtener datos confidenciales y de forma remota implantar códigos maliciosos.
En esta guerra de guerrillas sobre datos, los documentos de Snowden muestran que existen pocas diferencias entre soldados y civiles. Además cualquier usuario de Internet puede sufrir daños en sus datos o computadora, incluyendo otros peligros fuera de la red. Por ejemplo, un arma D como Barnfire podría destruir o “tapiar” el centro de control de un hospital, como consecuencia de un error de programación, las personas que ni siquiera son dueños de un teléfono móvil podrían verse afectados.
Las agencias de inteligencia han adoptado “negación plausible” como su principio rector de las operaciones de Internet. Para garantizar su capacidad para hacerlo, tratan de hacer que sea imposible trazar el autor del ataque.
Es un enfoque impresionante con la que los espías digitales socavan deliberadamente las propias bases del estado de derecho en todo el mundo. Este enfoque, amenaza con transformar Internet en una zona sin ley, en el que superpotencias y sus servicios secretos actúan según sus propios caprichos, con muy pocas maneras que rindan cuentas de sus actos.
NSA Docs sobre Malware e Implantes
CSEC document about the recognition of trojans and other “network based anomaly” The formalized process through which analysts choose their data requirement and then get to know the tools that can do the job QUANTUMTHEORY is a set of technologies allowing man-on-the-side interference attacks on TCP/IP connections (includes STRAIGHTBIZARRE and DAREDEVIL) Sample code of a malware program from the Five Eyes alliance 
La atribución es difícil y requiere un esfuerzo de investigación considerable. En los nuevos documentos, hay al menos un par de puntos a tener en cuenta. Querty, por ejemplo, es un keylogger que era parte del archivo de Snowden. Es un software, diseñado para interceptar subrepticiamente todas las teclas del teclado presionadas por la víctima y grabarlas para una inspección posterior. Se trata de una corriente, de hecho un poco anticuada, keylogger. Programas parecidos ya se puede encontrar en numerosas aplicaciones, por lo que no parece plantear ningún peligro agudo, pero el código fuente contenido en sí, revela algunos detalles interesantes. Sugieren que este keylogger podría ser parte de la gran arsenal de módulos que que pertenecen al programa Warriorpride, un tipo de software Esperanto universal, utilizado por todos los organismos asociados de los Cinco Ojos, los cuales, a veces era incluso capaces de irrumpir en iPhones, entre otras cosas . Los documentos publicados por Spiegel incluyen código de ejemplo desde el keylogger para fomentar la investigación y permitir la creación de defensas adecuadas.
Sólo un grupo de hackers ‘
Los hombres y mujeres que trabajan para el Centro de Operaciones a distancia (ROC), que utiliza el nombre en clave S321, en la sede de la agencia en Fort Meade, Maryland, el trabajo en uno de los equipos más importantes de la NSA, la unidad responsable de las operaciones encubiertas. Empleados S321 están situados en el tercer piso de uno de los principales edificios del campus de la NSA. En un informe del archivo Snowden, uno de los espias de la NSA recuerda acerca de cómo y cuando empezaron, las personas ROC, fueron “sólo un montón de piratas informáticos.” Al principio, la gente trabajaba más “improvisadamente” indica el informe. Hoy en día, sin embargo, los procedimientos son “más sistemáticos”. Incluso antes de que la gestión de la NSA se expandiera masivamente, el lema del grupo ROC durante el verano de 2005 del departamento era “Tus datos son nuestros datos, tu equipo es nuestro equipo.”
NSA Docs sobre Exfiltration
Explanation of the APEX method of combining passive with active methods to exfiltrate data from networks attacked Explanation of APEX shaping to put exfiltrating network traffic into patterns that allow plausible deniability Presentation on the FASHIONCLEFT protocol that the NSA uses to exfiltrate data from trojans and implants to the NSA Methods to exfiltrate data even from devices which are supposed to be offline Document detailing SPINALTAP, an NSA project to combine data from active operations and passive signals intelligence Technical description of the FASHIONCLEFT protocol the NSA uses to exfiltrate data from Trojans and implants to the NSA 
Los agentes se sientan frente a sus monitores, trabajando en turnos durante todo el día. La cercanía del objetivo de la NSA sobre la “dominación de la red global” se ilustra particularmente bien por el trabajo del departamento S31177, con nombre en código transgresión.
La tarea del departamento, es rastrear los ataques cibernéticos extranjeros, observar y analizarlos y, en el mejor de los casos, es para arrebatar información de otras agencias de inteligencia. Esta forma de “Cyber Counter Intelligence”” se encuenta entre una de las formas más delicadas del espionaje moderno.
By Jacob Appelbaum, Aaron Gibson, Claudio Guarnieri, Andy Müller-Maguhn, Laura Poitras, Marcel Rosenbach, Leif Ryge, Hilmar Schmundt and Michael Sontheimer
submitted by CLEPTPOLITICA to podemos [link] [comments]


2014.08.12 03:26 Nailuj2000 Porque no deberíamos usar Facebook

En podemos hay un grupo de técnicos trabajando para dotarnos de herramientas que nos faciliten el trabajo. Este grupo de profesionales recomienda una serie de herramientas concretas, entre ellas:
Loomio, que sirve para hacer encuestas encuestas y permite organizarse a grupos no muy numerosos. Reddit, que sirve para debatir, comparar opiniones, etc, permitiendo la participación de mucha gente. Agora, para realizar votaciones. Titanpad, basado en Etherpad, que permite la redacción colaborativa de documentos.
Además, este equipo esta trabajando para que dentro de poco tengamos nuestra propia red, usando software opensource y servidores propios, financiados con crowfunding. Sin duda, vamos a disponer de herramientas suficientes y eficaces para realizar nuestro trabajo de la mejor manera posible. Herramientas informáticas de código libre. Por ejemplo, nos recomiendan que para las webs de los círculos usemos Wordpress, pues es el software que se va a utilizar para webs en la intranet de Podemos.
El papel de Facebook o Twitter debería estar limitado ÚNICAMENTE a servir como herramientas de propaganda.
¿Porque no deberíamos usar facebook como herramienta en los grupos de trabajo? Hay una serie de motivos que expondremos a continuación:
  1. Los grupos de trabajo de Podemos deberían utilizar las herramientas recomendadas por Podemos, porque son mas adecuadas para el tipo de tareas que se suelen ejecutar, porque hay muchísima gente en Podemos que las usa y no hace falta explicar la conveniencia de la unificación de criterios técnicos. Porque tenemos a un grupo de técnicos trabajando, poniendo su profesionalidad, su tiempo y sus conocimientos a disposición de los demás; y la mejor forma de respetar y apreciar su trabajo es seguir sus recomendaciones. Con mas motivo aún cuando están basadas en la experiencia y el conocimiento.
  2. Es comprensible que un círculo en el que no exista personal cualificado se use faceboook, o cualquier otra cosa de fácil acceso para sus comunicados, notas, etc. Pero si hablamos de grupos de trabajo hay que hacer un esfuerzo y comenzar a usar las herramientas recomendadas. El punto en el que estamos ahora y a donde queremos llegar es lo suficientemente serio e importante, y facebook tendrá su importancia, pero no es serio. Ni parecido.
  3. EL software libre tiene una serie de ventajas sobre el propietario que no entraremos a considerar aquí, pero recomendamos hacer una búsqueda sobre este tema en Plaza Podemos, o en internet en general, que reportará resultados mas que suficientes. Baste indicar en este punto que las herramientas recomendadas por el grupo TIC son software libre. Facebook no lo es.
  4. Cuando uno acepta el contrato de usuario de Facebook, esta aceptando una serie de cláusulas abusivas entre las que destacamos la que que dice que cualquier contenido, texto, fotografía, etc., pasa a ser propiedad de Facebook. Estas condiciones cambian a menudo, lo suficientemente a menudo como para que el hecho de leerlas se convierta en algo que nadie suele hacer. Simplemente se acepta y punto. En estos tiempos tan puntillosos, con leyes tan rigurosas sobre la protección de datos no entendemos como se permiten prácticas como esta, ni siquiera como no se declaran ilegales o no válidas las condiciones del contrato de usuario de Facebook. Bueno, si que lo entendemos: los ricos no se joden entre ellos.
  5. Facebook no respeta la privacidad. El usuario de Facebook cree que puede "configurar su muro" para que los contenidos estén restringidos a los usuarios que considere "amigos". Y sí bien esto es cierto, también lo es que existe otro tipo de contrato: El "contrato de cliente", los clientes de facebook sí puede acceder a cualquier dato que facebook les quieras vender, pues de eso, y nada mas, trata este asunto: de vender y comprar, facebook tiene un producto que vende por dinero a su clientes, y ese producto eres tú. Cuando un producto es gratis el producto eres tu. Tal vez me dirás que no te preocupa que vean tus cosas o que no tienes nada que esconder o que lo que pones es inventado, pero no es así.
  6. Facebook ha comprado hace poco a Wasap o como se escriba, la gravedad e importancia que ello supone es un hecho sin precedentes, que puede llegar a ser aún mas grave en el momento, que llegará, en que decidan compartir sus datos con Google. Las implicaciones de este hecho son de tal magnitud que sería altamente recomendable un debate al efecto, siendo plaza Podemos un sitio ideal para ello, y estoy seguro de que no sólo yo, sino gente mucho mas cualificada aportará los datos necesarios para demostrar este extremo y los afirmados en el resto de puntos. Nos estamos jugando, sin que al perecer le importe nada a la mayoría, no solo nuestra privacidad, sino también nuestra libertad. ¿Acaso puede llamarse libre un hombre cuyos recovecos mas íntimos queden escritos en un frío papel salido de una máquina?. Máquina a la que por cierto, se la trae floja la veracidad de dichos datos, lo único que le importa es cuanto dinero obtendrá por ellos el amigo del punto siguiente.
  7. El negocio de facebook se basa en una especie de versión 2.0 de la minería de datos que llaman "big data", que, grosso modo, significa que unas maquinas muy potentes se entretienen en jugar con un montón de datos, entre los que se encuentran no sólo los tuyos, sino también los míos, de manera que pueden llegar a saber cosas de nosotros que ni siquiera nosotros conocemos. Y esto no es ninguna exageración. Una vez mas la información está ahí afuera, sólo hay que buscarla y se hallará muy fácilmente. No está muy lejano el día en que el seguro de un ciclomotor, de un coche, la hipoteca de una casa, un plan de pensiones, un préstamo, el presupuesto para una intervención quirúrgica, será mas caro o mas barato, o directamente denegado en base a lo que de nosotros opine un montón de chismes electrónicos alimentados con nuestros datos, por nosotros mismos, y a cambio de nada. El mismo día en que nosotros o un hijo nuestro pueda estar en una entrevista de trabajo, frente a un encargado de RRHH que tendrá entre sus manos una carpeta con el rótulo "Perfil psicológico de José Crédulo Pardillo Bueno - Realizado por FaceoGle". Ese día nos acordaremos de aquellos chalados conspiranoicos que nos advertían sobre los peligros de echarle de comer al Gran Hermano. No, no me refiero a ese, sino al otro, al que te mira desde la portada del libro.
Termino con una frase de una luchadora llamada Audre Lorde, que luchó toda su vida contra el capitalismo, el machismo, el racismo y la homofobia. Dijo: "No se desmonta la casa del amo con la herramienta del amo".
submitted by Nailuj2000 to podemos [link] [comments]


Cómo agregar botón de Whatsapp y Messenger en mi página ... Agregar Chat Messenger y Whatsapp en Sitio Web - 2019 ... Como editar y manipular cualquier página web - YouTube Extraer datos de un sitio web - YouTube Tu primer Página Web con Python3 - YouTube Cómo agregar codigo externo HTML a tu Sitio Web  Wix.com Existe un problema con el certificado de ... - YouTube Cómo agregar botón chat del fb messenger y whatsapp en mi web Como insertar el codigo de google analytics en mi sitio web Como poner un icono en el encabezado o logo en una pagina ...

¿Cómo instalar el código de F960 de AFIP en tu sitio web ...

  1. Cómo agregar botón de Whatsapp y Messenger en mi página ...
  2. Agregar Chat Messenger y Whatsapp en Sitio Web - 2019 ...
  3. Como editar y manipular cualquier página web - YouTube
  4. Extraer datos de un sitio web - YouTube
  5. Tu primer Página Web con Python3 - YouTube
  6. Cómo agregar codigo externo HTML a tu Sitio Web Wix.com
  7. Existe un problema con el certificado de ... - YouTube
  8. Cómo agregar botón chat del fb messenger y whatsapp en mi web
  9. Como insertar el codigo de google analytics en mi sitio web
  10. Como poner un icono en el encabezado o logo en una pagina ...

Aprende a crear un sitio web completamente desde cero utilizando Python (python3), y Flask (framework de aplicaciones web). Este ejemplo plantea la creación ... La extracción de datos permite obtener información de un documento en formato cerrado, sitio web o documento PDF, para liberar su información, de forma que q... Con el botón chat lleva a los visitantes del sitio web directamente a la aplicación de mensajería en el escritorio o en el dispositivo móvil. Obtenga más cha... Hola a todos, bueno este vídeo se hace con fines informativos espero sugerencias para mejorar y gracias por ver el vídeo Editor de texto utilizado: https://w... Apoya al canal comentando que tema quisieras ver en el próximo video. Gracias por tu comentario y tu like o dislike. javascript: document.body.contentEditabl... Este tutorial te muestra como usar tu propio código externo HTML en tu sitio web, cuando utilizas esta opción puedes hacer iframes, incrustrar formularios y ... Visita -- https://www.davidbravocedeño.com/aprende-a-comprar-tu-dominio-y-hosting-con-descuento/ ︎ Crea tu Página Web Aquí: https://www.davidbravocedeño.com... Enjoy the videos and music you love, upload original content, and share it all with friends, family, and the world on YouTube. Como insertar el codigo de google analytics en mi sitio web. Como insertar el codigo de google analytics en mi sitio web. En este video se muestra como agregar el chat de Facebook y Whatsapp en un sitio web de forma gratuita, haciendo uso de html, JavaScript, CSS de forma fácil ...