首页>>人工智能->Pandas用到今天,没成想竟忽略了这个函数

Pandas用到今天,没成想竟忽略了这个函数

时间:2023-11-29 本站 点击:1

导读:Pandas曾经一度是我数据分析的主力工具,甚至在当下也是很多情况下的首选。作为Python数分三剑客之一,Pandas素以API丰富著称,个人也是常常沉醉于其中的各种骚操作而不能自拔(好吧,有些言重了)。近日,发现了一个前期一直忽略了的函数,仔细探索之下,发现竟然还有一些好用的功能,这个函数就是——transform。

transform是Pandas中的一个函数,既可组用于Series和DataFrame,也可与groupby联用作用于DataFrameGroupBy对象,所以本文主要介绍transform的两个主要功能:

元素级的函数变换

与groupby配套统计(维度无reduce,可参考窗口函数)

01 transform介绍

首先来看下transform的官方文档介绍:

def transform(    obj: FrameOrSeries, func: AggFuncType, axis: Axis, *args, **kwargs) -> FrameOrSeriesUnion:    """    Transform a DataFrame or Series    Parameters    ----------    obj : DataFrame or Series        Object to compute the transform on.    func : string, function, list, or dictionary        Function(s) to compute the transform with.    axis : {0 or 'index', 1 or 'columns'}        Axis along which the function is applied:        * 0 or 'index': apply function to each column.        * 1 or 'columns': apply function to each row.    Returns    -------    DataFrame or Series        Result of applying ``func`` along the given axis of the        Series or DataFrame.

从函数签名可以看出,transform主要包括2个指定参数func和axis,其中func即为接收的处理函数,可以是函数对象、函数名字符串、函数列表以及字典函数等;axis即为作用的轴向;另有*args和**kwargs用于接收func函数的可变长参数及字典参数。

02 元素级的函数变换

在前期推文Pandas中的这3个函数,没想到竟成了我数据处理的主力一文中,重点介绍了apply、map以及applymap共3个函数的常用用法,那么transform的第一个功能颇有些map+applymap的味道:其中,map是只能用于Series对象的元素级变换,applymap则是只能用于DataFrame对象的元素级变换,但却要求必须所有函数都只能做相同函数处理,这又多少有些受限。

所以,transform呢?就既能满足map和applymap的部分需求,又在其基础上提供了更为丰富的操作。比如给定如下一个DataFrame:

需要对数值列A执行指数和对数两种运算(即对一个Series对象用transform,得到一个两列的DataFrame),显然传递函数格式需用列表,即:

进一步地,不仅需要对A列执行指数和对数计算,还需对字符串列B执行求长度计算,那么此时需要用transform的字典格式传递函数:

上述例子中未声明axis参数,此时默认axis=0,即传递的函数是按列起作用。下面我们再举个例子,尝试一下axis=1的效果:

在这个例子中,通过传入axis=1这一参数,实现了对不同行调用不同函数的处理效果,且这里的函数包括传递字符串形式、函数对象以及lambda表达式等3种形式。

以上,其实transform实现的又何尝不是map或者applymap的效果呢?但又远比二者功能更具定制化。

03 与groupby配套使用

transform可用于groupby对象,这是我最初学习transform的作用,在Pandas中groupby的这些用法你都知道吗?一文中其实也有所介绍,所以此处就简单提及。

Pandas实现常用的聚合统计中,一般是用groupby直接加聚合函数或者通过agg传递若干聚合函数,更为定制化的也可通过groupby+apply实现。然而,这三种实现其实都有一个共同特点:那就是groupby之后行数一般会发生reduce(体现为行数减少),这也是通常意义下"聚合"的含义。那么某些场景下,其实是不需要聚合的,例如给定如下数据样例:

需要统计每个id各门课成绩的占比,如果用常规的聚合统计的思路需要用3步实现:

df.groupby("id").sum("score"),得到每个id的成绩总和

df与上述结果按照id进行merge,得到关联后的score和总成绩

score列与总成绩相除,得到占比

同样需求,如果巧妙使用transform的话那么就可以一步到位:

这个实现起来就很爽了,对吧!

原文:https://juejin.cn/post/7100138819785064461


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/1209.html