Du kannst nicht mehr als 25 Themen auswählen Themen müssen mit entweder einem Buchstaben oder einer Ziffer beginnen. Sie können Bindestriche („-“) enthalten und bis zu 35 Zeichen lang sein.

knowledge_graph.py 1.3KB

12345678910111213141516171819202122232425262728293031
  1. import re
  2. from graphrag.index import build_knowledge_graph_chunks
  3. from rag.app import naive
  4. from rag.nlp import rag_tokenizer, tokenize_chunks
  5. def chunk(filename, binary, tenant_id, from_page=0, to_page=100000,
  6. lang="Chinese", callback=None, **kwargs):
  7. parser_config = kwargs.get(
  8. "parser_config", {
  9. "chunk_token_num": 512, "delimiter": "\n!?。;!?", "layout_recognize": True})
  10. eng = lang.lower() == "english"
  11. parser_config["layout_recognize"] = True
  12. sections = naive.chunk(filename, binary, from_page=from_page, to_page=to_page, section_only=True,
  13. parser_config=parser_config, callback=callback)
  14. chunks = build_knowledge_graph_chunks(tenant_id, sections, callback,
  15. parser_config.get("entity_types", ["organization", "person", "location", "event", "time"])
  16. )
  17. for c in chunks: c["docnm_kwd"] = filename
  18. doc = {
  19. "docnm_kwd": filename,
  20. "title_tks": rag_tokenizer.tokenize(re.sub(r"\.[a-zA-Z]+$", "", filename)),
  21. "knowledge_graph_kwd": "text"
  22. }
  23. doc["title_sm_tks"] = rag_tokenizer.fine_grained_tokenize(doc["title_tks"])
  24. chunks.extend(tokenize_chunks(sections, doc, eng))
  25. return chunks