LaTeX2Markdown是从AMS-乳胶相容变换器胶乳(的一个子集),以MathJaX兼容降价。谁应该使用这个?人谁写使用AMS-LaTeX的包(amsmath,amsthm,amssymb)LaTeX文档,并希望将这些文档转换为Markdown格式与MathJaX使用。输出的降价文件,可以很容易地添加到任何网络平台 -...

LaTeX2PS

LaTeX2PS 1.7.1

LaTeX2PS是一个图形界面的排版LaTeX文档。下面的方式实现:乳胶 - > DVI,乳胶 - > PS,乳胶 - > PDF和LaTeX - > PS - > PDF。您可以通过右键点击一个LaTeX的文件,并选择“排版的TeX / LaTeX的(latex2ps)”使用LaTeX2PS从内部的Konqueror。为了让后者的功能,你必须latex2ps.desktop在$ HOME / .kde /股/应用程序/ Konqueror中/...

乳胶:: BibTeX之是一个Perl模块,主要作为一个高层次的介绍乳胶:: BibTeX之库,为代码和文档的目的 代码加载两个基本模块处理的BibTeX文件(乳胶:: BibTeX之::文件和LaTeX :: BibTeX之::输入),以及本文档使整个图书馆是不是构成它的各个模块的文档中获得了广泛的介绍。此外,胶乳::的BibTeX模块提供了许多杂项功能是在处理的BibTeX数据(尤其是来自参考书目通过的BibTeX...

LaTeXila

LaTeXila 3.27.1 更新

LaTeXila是一个开源免费的软件项目,它可以作为一个独立的功能齐全的LaTeX编辑器,专门为GNOME桌面环境设计,运行在任何GNU / Linux操作系统上。 p>功能一目了然主要功能包括支持多种语言,通过单击鼠标即可转换,查看和编辑文档的自定义按钮,以章节,图形和部分列表形式显示的文档结构,可轻松导航。它具有用GTK...

lcov_cobertura在转换格式LCOV代码覆盖率报告文件的Cobertura的XML 报告的格式,以便像詹金斯的CI服务器可以汇总结果,并决定建立稳定等。        >>>从lcov_cobertura进口LcovCobertura        >>> LCOV_INPUT ='SF:FOO /...

Lire

Lire 1.0

里拉是一个开源的报告和分析软件,和作为一个文档,思想的关系,并认为对日志文件及其潜在应用的话题。任何一个好的系统管理员都知道,有很多更在一个活动的网络保持跟踪不仅仅是网络服务器。里拉是手了当今最多才多艺的日志分析软件。里拉不仅让你了解你的HTTP,FTP,邮运输量知情,还报告了你的防火墙,打印服务器和您的DNS活动。不断增长的里拉支持服务的列表显然超过了任何其他软件,在很大程度上要归功于谁也开创了很多新的服务和功能众多的志愿者。里拉是您的日志分析需求的整体解决方案。里拉自动生成从各种服务生的日志文件有用的报...

LLRP Toolkit

LLRP Toolkit 0.7 / 1.0.0 Beta

LLRP工具包容纳开源库的各种语言的发展,以帮助读者和软件供应商构建和解析LLRP消息。 LLRP工具包托管在SourceForge.net,开源软件的努力,如NET-SNMP,wxWidgets的,和JBoss互联网信息库。工具包项目文件都根据Apache 2.0许可协议。...

lnav

lnav 0.6.0

LNAV是一个基于ncurses工具查看和分析日志文件 通过LNAV添加超过文本观众/编辑器的价值在于,它需要可以从记录文件中收集的任何语义信息的优势,如时间戳和日志的水平。使用这些额外的语义信息,LNAV可以做的事情一样交错来自不同文件中的消息,生成消息的直方图随着时间的推移,并提供热键通过文件浏览。人们希望,这些功能将允许用户快速有效地零上的问题 什么在此版本中是新的: 自定义日志格式,更内置格式。数据可以自动从日志信息中提取。在本次发布的一些UI改进以及支持256色终端。 ...

logtools

logtools 0.8

logtools是一个日志文件的分析和过滤框架。logtools包括几个易于使用,易于配置的命令行工具,通常与Apache日志结合使用。我们的想法是用一个连贯的配置方法和UNIX命令行界面(STDIN输入流,命令行管道等),以规范日志分析和过滤,以便创造一个一致的环境创建报表,图表和其他类似日志挖掘文物这通常是用在网站的上下文。使用案例(假设配置的〜/ .logtoolsrc,见文档):  *获取汇总(IP,国家)计数所有机器人访问: 猫access_log.2010-05-15 |...

log_analysis是一个日志文件分析引擎,其提取相关数据的任何所识别的日志消息,并产生一个摘要是更容易阅读。log_analysis是我解决了这些问题。它通过几种不同类型的日志(目前系统日志,wtmp文件,并sulog),过一段时间(默认为昨天)。它剔除了日期和PID,并丢弃某些条目。然后,它会尝试对Perl的正则表达式的列表中的每个条目。每一个Perl的正则表达式与类别名称和提取数据的规则相关联。当有一个匹配,数据提取规则应用,并根据类别的申请。如果日志条目是未知的,它是根据申请为未知数的特殊类别。...