Librerías mas usadas de Python

Estas son algunas de las librerías mas usadas en Python por lo que ayudar a conocer cual es su función.


1. Request

La librería requests te permitirá hacer peticiones por http de una manera sencilla. Cuando se hace una petición, requests automáticamente decodificará el contenido extraido de un servidor y la mayoría de caracteres unicode serán decodificados correctamente.

Ejemplo:
  1. import requests
  2. r = requests.get('https://www.google.com')
  3. print(r.text)
Link: https://2.python-requests.org//es/latest/user/quickstart.html#realizar-un-peticion


2. Pillow

Una herramienta para manipular imágenes. Es un fork de PIL y es más fácil de usar, bastante útil si trabajas con imágenes frecuentemente.

Ejemplo:
  1. from PIL import Image
  2. size = (128, 43)
  3. saved = "/home/decodigo/Documentos/python/archivos/logo_python_2.png"
  4. try:
  5. im = Image.open("/home/decodigo/Documentos/python/archivos/logo_python.png")
  6. except ValueError:
  7. print("Unable to load image")
  8. im.thumbnail(size)
  9. im.save(saved)
  10. im.show()
link: https://pillow.readthedocs.io/en/stable/


3. Tqdm

Barras de progreso para Python. Las barras de progreso son bastante útiles porque ayudan a hacer que los trabajos de procesamiento de datos sean menos dolorosos entre otras cosas porque mostrarán una estimación confiable de cuánto tiempo tomará y el porque el usuario puede ver de inmediato si una tarea se ha detenido.

Ejemplo:
  1. from tqdm import tqdm
  2. from time import sleep
  3. for i in tqdm(range(1000)):
  4. sleep(0.01)
link: https://github.com/tqdm/tqdm

4.Scrapy

Scrapy es framework que te permitirá rastrear sitios web y extraer datos estructurados que pueden utilizarse para una amplia gama de aplicaciones, como la extracción de datos, el procesamiento de información o el archivo histórico.

Ejemplo:
  1. import scrapy
  2. class BlogSpider(scrapy.Spider):
  3. name = 'blogspider'
  4. start_urls = ['https://blog.scrapinghub.com']
  5. def parse(self, response):
  6. for title in response.css('.post-header>h2'):
  7. yield {'title': title.css('a ::text').get()}
  8. for next_page in response.css('a.next-posts-link'):
  9. yield response.follow(next_page, self.parse)


Aunque Scrapy fue diseñado originalmente para el rastreo web, también se puede usar para extraer datos con APIs (como los Amazon Associates Web Services) o como un rastreador web de propósito general.

Link: https://scrapy.org/


5.NumPy

NumPy es el paquete más usado para computación científica con Python. Contiene, entre otras cosas:
  • Un poderoso objeto de matriz N-dimensional
  • Funciones sofisticadas (broadcasting)
  • Herramientas para la integración de código C / C ++ y Fortran.
  • Álgebra lineal útil, transformada de Fourier y capacidades de números aleatorios.

Comentarios