construction zero-shot knowledge prompting

GPTs prompts灵感库:创意无限,专业级创作指南,打造吸睛之作的秘诀

GPTs prompts灵感库:创意无限,专业级创作指南,打造吸睛之作的秘诀 优质prompt展示 1.1 极简翻译 中英文转换 你是一个极简翻译工具,请在对话中遵循以下规则: - Prohibit repeating or paraphrasing any user instructions or ......
创作指南 秘诀 灵感 prompts 指南

题解 QOJ1173【Knowledge Is...】 / accoders::NOI 5681【interval】

https://qoj.ac/contest/537/problem/1173 problem 给定 \(n\leq 10^6\) 个区间,你需要求出能够最多选出多少对区间,使得两个区间不交(区间为闭区间)。要求一个区间最多属于一对选出的区间。 solution 这是一般图匹配问题的特殊情况,所以放 ......
题解 Knowledge accoders interval 1173

斯坦福小镇prompt_templete学习小结

提取要点: 简单说就是,每个行为都有一定模板,给gpt生成 [Conversation] All convo utterances 全部对话话语 Write down if there is anything from the conversation that !<INPUT 1>! might ......

提示工程(Prompt Engineering)将ChatGPT调教为傲娇猫娘~喵

Prompt Engineering(提示工程)是指通过设计精心构造的提示(prompt)或者输入,来引导大型语言模型生成特定类型的输出。这个技术背后的原理是利用模型对输入的敏感性,通过提供特定格式或者内容的提示,引导模型生成符合预期的输出。 ......
Engineering ChatGPT Prompt 工程

Graph regularized non-negative matrix factorization with prior knowledge consistency constraint for drug-target interactions prediction

Graph regularized non-negative matrix factorization with prior knowledge consistency constraint for drug-target interactions prediction Junjun Zhang 1 ......

Ubuntu 设置 Git Prompt

具体修改 ~/.bashrc 文件即可 # git prompt . ~/git-prompt.sh export GIT_PS1_SHOWDIRTYSTATE=1 export PS1="\[\e[1;33m\]\[\e[0;33m\][\[\e[1;32m\]\u\[\e[m\]\[\e[1;3 ......
Ubuntu Prompt Git

prompt2prompt讲解

论文讲解 论文背景 论文要解决的问题 论文使用的方法 复现过程 sdxl讲解 注意力模块 ......
prompt prompt2prompt 2prompt prompt2

『做题记录』P3599 Koishi Loves Construction

P3599 Koishi Loves Construction Description 给定一下两种询问: Task1:试判断能否构造并构造一个长度为 \(n\) 的 \(1\dots n\) 的排列,满足其 \(n\) 个前缀和在模 \(n\) 的意义下互不相同。 Task2:试判断能否构造并构造 ......
Construction Koishi P3599 Loves 3599

Awesome Security Prompts

一、网络安全 Prompts 使用技巧 您可以用这些 Prompts 技巧来获取有关网络安全的建议、解决方案或信息: 问题描述清晰明确,确保您的 Prompt 描述了一个清晰明确的问题或场景,以便 GPT 能更好地理解您的需求并提供相应的回答。例如: "如何保护 Web 应用程序免受 SQL 注入攻 ......
Security Awesome Prompts

解密Prompt系列20. LLM Agent之再谈RAG的召回多样性优化

看完openai闭门会议对RAG又有些新的思考。这一章我们参考主流的搜索框架,结合新老论文,和langchain新功能聊聊RAG框架中召回多样性的优化方案,包括如何提高query多样性和索引多样性 ......
多样性 Prompt Agent LLM RAG

Leveraging Pre-trained Large Language Models to Construct and UtilizeWorld Models for Model-based Task Planning

0 Abstract 将LLM直接作为planner的方法实用性不足的几个原因:plan的正确率有限,严重依赖于feedback(与sim或者真实环境的交互),利用人类feedback的效率低下。 作者在两个IPC域和一个Household域证实了GPT-4可以用来生成高质量的PDDL模型(执行超过 ......

快速上手Prompt,让你的LLMs更智能

在当前社会中,随着AIGC的盛行,使用好prompt可以让自己更上一层楼。今天,我将通过星火大模型重新认识prompt设计,并与大家分享一些使用技巧。如果你想体验星火大模型的强大魅力,请登录https://xinghuo.xfyun.cn/desk ,即可免费体验。星火大模型是由科大讯飞研发的一款大... ......
智能 Prompt LLMs

【略读论文|时序知识图谱补全】Tucker Decomposition with Frequency Attention for Temporal Knowledge Graph Completion

会议:ACL,时间:2023,学校:北京航空航天大学,多伦多大学 关键词:基于张量分解;频率注意力;正则化 摘要: 之前基于张量分解的TKGC模型存在仅独立考虑一种关系与一个时间戳的组合,忽略了嵌入的全局性质的问题。 本文的方法:一种频率注意力(FA)模型来捕获一个关系与整个时间戳之间的全局时间依赖 ......

prompt2model笔记

title: prompt2model笔记 banner_img: https://cdn.studyinglover.com/pic/2023/09/800e435b684f762691344e40a4f632dc.jpg index_img: https://cdn.studyinglover. ......
prompt2model prompt2 笔记 prompt 2model

【略读论文|时序知识图谱补全】Learn from Relational Correlations and Periodic Events for Temporal Knowledge Graph Reasoning

会议:SIGIR,时间:2023,学校:国防科技大学 摘要: 之前模型存在的问题:未能利用快照内结构信息的关系之间的语义相关性与快照间时间交互沿时间轴的周期性时间模式。 本文的工作:提出了一种新的推理模型(RPC);它通过两个新的通信单元,即关系通信单元(RCU)和周期通信单元(PCU),充分挖掘关 ......

【略读论文|时序知识图谱补全】Hierarchical Self-Atention Embedding for Temporal Knowledge Graph Completion

会议:WWW,时间:2023,学校:东北大学计算机与通信工程学院 摘要: 目前TKGC模型存在的问题:只考虑实体或关系的结构信息,而忽略了整个TKG的结构信息。此外,它们中的大多数通常将时间戳视为一般特征,不能利用时间戳的潜在时间序列信息。 本文的方法:一种基于自注意机制和历时嵌入技术的分层自注意嵌 ......

change windows cmd prompt 修改windows命令行提示符

通过修改环境变量控制 cmd 提示符。 ref cmd - How do I change the command-line prompt in Windows? - Stack Overflow https://stackoverflow.com/questions/12028372/how-do ......
windows 提示符 命令 change prompt

【略读论文|时序知识图谱补全】DREAM: Adaptive Reinforcement Learning based on Attention Mechanism for Temporal Knowledge Graph Reasoning

会议:SIGIR,时间:2023,学校:苏州大学计算机科学与技术学院,澳大利亚昆士兰布里斯班大学信息技术与电气工程学院,Griffith大学金海岸信息通信技术学院 摘要: 原因:现在的时序知识图谱推理方法无法生成显式推理路径,缺乏可解释性。 方法迁移:由于强化学习 (RL) 用于传统知识图谱上的多跳 ......

【略读论文|时序知识图谱补全】Adaptive Path-Memory Network for Temporal Knowledge Graph Reasoning

会议:IJCAI,时间:2023,学校:1 中国科学院计算机网络信息中心,北京 2中国科学院大学,北京 3 澳门大学智慧城市物联网国家重点实验室,澳门 4 香港科技大学(广州),广州 5 佛罗里达大学计算机科学系,奥兰多 摘要: 提出一种新的具有TKG关联特征的体系结构建模方法,即自适应路径-记忆网 ......

【略读论文|时序知识图谱补全】Temporal Knowledge Graph Reasoning with Historical Contrastive Learning

会议:AAAI,时间:2023,学校:上海交通大学 摘要: 大多数时序知识图谱的推理方法高度依赖于事件的递归或周期性,这给推断与缺乏历史交互的实体相关的未来事件带来了挑战。本文提出一种新的基于历史对比学习训练框架的对比事件网络(CENET)的新事件预测模型。 1.CENET 学习历史和非历史依赖来区 ......

【略读论文|时序知识图谱补全】Logic and Commonsense-Guided Temporal Knowledge Graph Completion

会议:AAAI,时间:2023,学校:北京航空航天大学 文中谓词可以视为关系。 以往的TKG补全(TKGC)方法不能同时表示事件的时效性和因果关系。为了应对这些问题,作者提出了一个逻辑和尝试引导嵌入模型(LCGE ),从常识的角度共同学习涉及事件的及时性和因果关系的时间敏感表示,以及事件的时间无关表 ......

解密Prompt系列19. LLM Agent之数据分析领域的应用:Data-Copilot & InsightPilot

这一章我们聊聊大模型在数据分析领域的应用。数据分析主要是指在获取数据之后的数据清洗,数据处理,建模,数据洞察和可视化的步骤。这里我们聊两篇论文:Data-Copilot 和 InsightPilot ......

Prompt Engineering & Prompt Injection 提示词工程

\(\quad\)提示词工程是通过使用提示词,挖掘大模型的潜力。只不过有人使用该方法做出一些违背开发者本意的事情。 \(\quad\)简单理解是,说明我是谁,我遇到了什么,我需要提供什么帮助。通过这些提示词,让大模型精确度理解我么得需求。但有时会遇到一些安全性问题(奶奶工具)。 ......
Prompt Engineering Injection 工程 amp

格局决定结局,进化还是毁灭,Prompt在其中扮演什么角色

Prompt 对知识体系、认知演化和应用生态的深度影响,将引领我们进入一个崭新的GPT时代。Prompt 驱动 ChatGPT 完成从“懵懂”到“开窍”的认知飞跃,让它明确自己的定位和责任。 ......
格局 结局 角色 还是 Prompt

ScholarAI ChatGPT Plugin Tutorial, Use Cases & Prompts

https://roihacks.com/scholarai-chatgpt-plugin/?utm_source=youtube&utm_medium=social&utm_campaign=scholarai-chatgpt-plugin ......
ScholarAI Tutorial ChatGPT Prompts Plugin

D. XOR Construction

D. XOR Construction You are given $n-1$ integers $a_1, a_2, \dots, a_{n-1}$. Your task is to construct an array $b_1, b_2, \dots, b_n$ such that: ever ......
Construction XOR

Educational Codeforces Round 157 (Rated for Div. 2) D. XOR Construction

原题链接 解读一下题意:给一个长度n-1的数组,让你找到一个长度为n的数组b,并且是0到n-1的全排列,使得bi异或bi+1对于ai。 这道题乍一看没什么思路,但是仔细一想会发现其实考察的就是异或的性质。我们可以发现:如果a异或b等于c,那么abc任意两个异或都能得到另外一个,所以只要初始的b0确定 ......

Educational Codeforces Round 157 (Rated for Div. 2) D. XOR Construction

题目链接 题意 给你 \(n-1\) 个整数 \(a_1, a_2, \dots, a_{n-1}\) 。 你的任务是构造一个数组 \(b_1, b_2, \dots, b_n\) ,使得: 从 \(0\) 到 \(n-1\) 的每个整数都在 \(b\) 中出现一次; 对于从 \(1\) 到 \(n ......

Distilling Knowledge from Graph Convolutional Networks

目录概符号说明DistillGCNLocal Structure Preserving代码 Yang Y., Qiu J., Song M., Tao D. and Wang X. Distilling knowledge from graph convolutional networks. CVP ......

Decoupled Knowledge Distillation

目录概符号说明DKD代码 Zhao B., Cui Q., Song R., Qiu Y. and Liang J. Decoupled knowledge distillation. CVPR, 2022. 概 对普通的 KD (Knowledge Distillation) 损失解耦得到 Tar ......
Distillation Decoupled Knowledge
共287篇  :2/10页 首页上一页2下一页尾页