]> git.mxchange.org Git - fba.git/commitdiff
Continued:
authorRoland Häder <roland@mxchange.org>
Thu, 22 Jun 2023 19:25:50 +0000 (21:25 +0200)
committerRoland Häder <roland@mxchange.org>
Thu, 22 Jun 2023 19:25:50 +0000 (21:25 +0200)
- these fetch_blocks() must return a list()

fba/commands.py
fba/networks/friendica.py
fba/networks/lemmy.py
fba/networks/mastodon.py
fba/networks/misskey.py
fba/networks/peertube.py
fba/networks/pleroma.py

index e62970da7b245bb09fcaaf6e53268cea8c9753c7..83934f30f208f7e023db9aa42502e1787c79c9bf 100644 (file)
@@ -209,7 +209,7 @@ def fetch_blocks(args: argparse.Namespace):
         else:
             logger.warning("Unknown software: blocker='%s',software='%s'", blocker, software)
 
-        logger.info("Checking %s entries from blocker='%s',software='%s' ...", len(blocking), blocker, software)
+        logger.info("Checking %d entries from blocker='%s',software='%s' ...", len(blocking), blocker, software)
         for block in blocking:
             logger.debug("blocked='%s',block_level='%s',reason='%s'", block['blocked'], block['block_level'], block['reason'])
 
index b8fcdf3dd1b20bdbb40495d274d3803e2bb41d4a..83ab193feabf0e9e17d9c67bdf5cfa8f3b7fd306 100644 (file)
@@ -56,12 +56,12 @@ def fetch_blocks(domain: str) -> list:
     except network.exceptions as exception:
         logger.warning("Exception '%s' during fetching instances from domain='%s'", type(exception), domain)
         instances.set_last_error(domain, exception)
-        return blocklist
+        return list()
 
     # Prevents exceptions:
     if block_tag is None:
         logger.debug("Instance has no block list: domain='%s'", domain)
-        return blocklist
+        return list()
 
     table = block_tag.find("table")
 
index a48b3c0a8422d86b646a51e3d4f212c8746d64fc..b4e4ea1910b35c3e325dbb122a3716feb59e355a 100644 (file)
@@ -51,7 +51,7 @@ def fetch_peers(domain: str) -> list:
     except network.exceptions as exception:
         logger.warning("Exception '%s' during checking CSRF (fetch_peers,%s) - EXIT!", type(exception), __name__)
         instances.set_last_error(domain, exception)
-        return peers
+        return list()
 
     try:
         logger.debug("Fetching '/api/v3/site' from domain='%s' ...", domain)
index 47f19c07e098d31ac3d659c50671d6c025e9c2e9..b705ea674216736fa34228ff47d9308ba67a62e9 100644 (file)
@@ -101,7 +101,7 @@ def fetch_blocks_from_about(domain: str) -> dict:
     logger.debug("doc[]='%s'", type(doc))
     if doc is None:
         logger.warning("Cannot fetch any /about pages for domain='%s' - EXIT!", domain)
-        return blocklist
+        return list()
 
     for header in doc.find_all("h3"):
         header_text = tidyup.reason(header.text)
index 85bfc460bd8cec20b2f7e8ad38f556db6000b077..58612ae4a1215509c9a8fc7c0a3e37fc8f24bf17 100644 (file)
@@ -50,7 +50,7 @@ def fetch_peers(domain: str) -> list:
     except network.exceptions as exception:
         logger.warning("Exception '%s' during checking CSRF (fetch_peers,%s) - EXIT!", type(exception), __name__)
         instances.set_last_error(domain, exception)
-        return peers
+        return list()
 
     # iterating through all "suspended" (follow-only in its terminology)
     # instances page-by-page, since that troonware doesn't support
index d89e7dd80e6de40bf2e9b96b0b3a2b4de35a339f..67b59b716a62c529f69260a1c33266ff54ba2018 100644 (file)
@@ -45,7 +45,7 @@ def fetch_peers(domain: str) -> list:
     except network.exceptions as exception:
         logger.warning("Exception '%s' during checking CSRF (fetch_peers,%s) - EXIT!", type(exception), __name__)
         instances.set_last_error(domain, exception)
-        return peers
+        return list()
 
     for mode in ["followers", "following"]:
         logger.debug(f"domain='{domain}',mode='{mode}'")
index a9d8adbce8663712661ef584e20b6467f69242f6..8bc28831d7df3c8ee3f32a36f2253b4f8cc4e631 100644 (file)
@@ -62,13 +62,13 @@ def fetch_blocks(domain: str, nodeinfo_url: str) -> list:
 
     if rows is None:
         logger.warning("Could not fetch nodeinfo from domain='%s'", domain)
-        return
+        return list()
     elif "metadata" not in rows:
         logger.warning("rows()=%d does not have key 'metadata', domain='%s'", len(rows), domain)
-        return
+        return list()
     elif "federation" not in rows["metadata"]:
         logger.warning("rows()=%d does not have key 'federation', domain='%s'", len(rows['metadata']), domain)
-        return
+        return list()
 
     data = rows["metadata"]["federation"]
     found = False
@@ -484,7 +484,7 @@ def fetch_blocks_from_about(domain: str) -> dict:
     logger.debug("doc[]='%s'", type(doc))
     if doc is None:
         logger.warning("Cannot fetch any /about pages for domain='%s' - EXIT!", domain)
-        return blocklist
+        return list()
 
     for header in doc.find_all("h2"):
         header_text = tidyup.reason(header.text)