]> git.mxchange.org Git - fba.git/blob - fba/networks/mastodon.py
Continued:
[fba.git] / fba / networks / mastodon.py
1 # Fedi API Block - An aggregator for fetching blocking data from fediverse nodes
2 # Copyright (C) 2023 Free Software Foundation
3 #
4 # This program is free software: you can redistribute it and/or modify
5 # it under the terms of the GNU Affero General Public License as published
6 # by the Free Software Foundation, either version 3 of the License, or
7 # (at your option) any later version.
8 #
9 # This program is distributed in the hope that it will be useful,
10 # but WITHOUT ANY WARRANTY; without even the implied warranty of
11 # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12 # GNU Affero General Public License for more details.
13 #
14 # You should have received a copy of the GNU Affero General Public License
15 # along with this program.  If not, see <https://www.gnu.org/licenses/>.
16
17 import logging
18
19 import bs4
20
21 from fba import csrf
22
23 from fba.helpers import config
24 from fba.helpers import domain as domain_helper
25 from fba.helpers import tidyup
26
27 from fba.http import network
28
29 from fba.models import instances
30
31 logging.basicConfig(level=logging.INFO)
32 logger = logging.getLogger(__name__)
33
34 # Language mapping X -> English
35 language_mapping = {
36     # English -> English
37     "Silenced instances"            : "Silenced servers",
38     "Suspended instances"           : "Suspended servers",
39     "Limited instances"             : "Limited servers",
40     "Filtered media"                : "Filtered media",
41     # Mappuing German -> English
42     "Gesperrte Server"              : "Suspended servers",
43     "Gefilterte Medien"             : "Filtered media",
44     "Stummgeschaltete Server"       : "Silenced servers",
45     # Japanese -> English
46     "停止済みのサーバー"            : "Suspended servers",
47     "制限中のサーバー"              : "Limited servers",
48     "メディアを拒否しているサーバー": "Filtered media",
49     "サイレンス済みのサーバー"      : "Silenced servers",
50     # ??? -> English
51     "שרתים מושעים"                  : "Suspended servers",
52     "מדיה מסוננת"                   : "Filtered media",
53     "שרתים מוגבלים"                 : "Silenced servers",
54     # French -> English
55     "Serveurs suspendus"            : "Suspended servers",
56     "Médias filtrés"                : "Filtered media",
57     "Serveurs limités"              : "Limited servers",
58     "Serveurs modérés"              : "Limited servers",
59 }
60
61 def fetch_blocks_from_about(domain: str) -> dict:
62     logger.debug("domain='%s' - CALLED!", domain)
63     domain_helper.raise_on(domain)
64
65     logger.debug("Fetching mastodon blocks from domain='%s'", domain)
66     doc = None
67     for path in ["/about/more", "/about"]:
68         try:
69             logger.debug(f"Fetching path='{path}' from domain='{domain}' ...")
70             doc = bs4.BeautifulSoup(
71                 network.fetch_response(
72                     domain,
73                     path,
74                     network.web_headers,
75                     (config.get("connection_timeout"), config.get("read_timeout"))
76                 ).text,
77                 "html.parser",
78             )
79
80             if len(doc.find_all("h3")) > 0:
81                 logger.debug(f"path='{path}' had some headlines - BREAK!")
82                 break
83
84         except network.exceptions as exception:
85             logger.warning("Cannot fetch from domain='%s',exception='%s'", domain, type(exception))
86             instances.set_last_error(domain, exception)
87             break
88
89     blocklist = {
90         "Suspended servers": [],
91         "Filtered media"   : [],
92         "Limited servers"  : [],
93         "Silenced servers" : [],
94     }
95
96     logger.debug("doc[]='%s'", type(doc))
97     if doc is None:
98         logger.warning("Cannot fetch any /about pages for domain='%s' - EXIT!", domain)
99         return list()
100
101     for header in doc.find_all("h3"):
102         header_text = tidyup.reason(header.text)
103
104         logger.debug("header_text='%s'", header_text)
105         if header_text in language_mapping:
106             logger.debug("Translating header_text='%s' ...", header_text)
107             header_text = language_mapping[header_text]
108         else:
109             logger.warning("header_text='%s' not found in language mapping table", header_text)
110
111         if header_text in blocklist or header_text.lower() in blocklist:
112             # replaced find_next_siblings with find_all_next to account for instances that e.g. hide lists in dropdown menu
113             for line in header.find_all_next("table")[0].find_all("tr")[1:]:
114                 blocklist[header_text].append({
115                     "domain": tidyup.domain(line.find("span").text),
116                     "hash"  : tidyup.domain(line.find("span")["title"][9:]),
117                     "reason": tidyup.reason(line.find_all("td")[1].text),
118                 })
119         else:
120             logger.warning("header_text='%s' not found in blocklist()=%d", header_text, len(blocklist))
121
122     logger.debug("Returning blocklist for domain='%s' - EXIT!", domain)
123     return {
124         "reject"        : blocklist["Suspended servers"],
125         "media_removal" : blocklist["Filtered media"],
126         "followers_only": blocklist["Limited servers"] + blocklist["Silenced servers"],
127     }
128
129 def fetch_blocks(domain: str, nodeinfo_url: str) -> list:
130     logger.debug("domain='%s',nodeinfo_url='%s' - CALLED!", domain, nodeinfo_url)
131     domain_helper.raise_on(domain)
132
133     if not isinstance(nodeinfo_url, str):
134         raise ValueError(f"Parameter nodeinfo_url[]='{type(nodeinfo_url)}' is not 'str'")
135     elif nodeinfo_url == "":
136         raise ValueError("Parameter 'nodeinfo_url' is empty")
137
138     # Init block list
139     blocklist = list()
140
141     # No CSRF by default, you don't have to add network.api_headers by yourself here
142     headers = tuple()
143
144     try:
145         logger.debug("Checking CSRF for domain='%s'", domain)
146         headers = csrf.determine(domain, dict())
147     except network.exceptions as exception:
148         logger.warning("Exception '%s' during checking CSRF (fetch_blocks,%s) - EXIT!", type(exception), __name__)
149         instances.set_last_error(domain, exception)
150         return blocklist
151
152     try:
153         # json endpoint for newer mastodongs
154         logger.debug("Querying API domain_blocks: domain='%s'", domain)
155         data = network.get_json_api(
156             domain,
157             "/api/v1/instance/domain_blocks",
158             headers,
159             (config.get("connection_timeout"), config.get("read_timeout"))
160         )
161
162         logger.debug("data[]='%s'", type(data))
163         if "error_message" in data:
164             logger.debug("Was not able to fetch domain_blocks from domain='%s': status_code='%d',error_message='%s'", domain, data['status_code'], data['error_message'])
165             instances.set_last_error(domain, data)
166             return blocklist
167         elif "json" in data and "error" in data["json"]:
168             logger.warning("JSON API returned error message: '%s'", data['json']['error'])
169             instances.set_last_error(domain, data)
170             return blocklist
171         else:
172             # Getting blocklist
173             rows = data["json"]
174
175         if len(rows) == 0:
176             logger.debug("domain='%s' has returned zero rows, trying /about/more page ...", domain)
177             rows = fetch_blocks_from_about(domain)
178
179         if len(rows) > 0:
180             logger.info("Checking %d entries from domain='%s' ...", len(rows), domain)
181             for block in rows:
182                 # Check type
183                 logger.debug("block[]='%s'", type(block))
184                 if not isinstance(block, dict):
185                     logger.debug(f"block[]='{type(block)}' is of type 'dict' - SKIPPED!")
186                     continue
187
188                 reason = tidyup.reason(block["comment"]) if "comment" in block and block['comment'] is not None and block['comment'] != "" else None
189
190                 logger.debug("Appending blocker='%s',blocked='%s',reason='%s',block_level='%s'", domain, block['domain'], reason, block['severity'])
191                 blocklist.append({
192                     "blocker"    : domain,
193                     "blocked"    : block["domain"],
194                     "hash"       : block["digest"],
195                     "reason"     : reason,
196                     "block_level": block["severity"]
197                 })
198         else:
199             logger.debug("domain='%s' has no block list")
200
201     except network.exceptions as exception:
202         logger.warning("domain='%s',exception[%s]='%s'", domain, type(exception), str(exception))
203         instances.set_last_error(domain, exception)
204
205     logger.debug("blocklist()=%d - EXIT!", len(blocklist))
206     return blocklist